
Mark Zuckerberg discusses the "AR+AI" vision: Meta may launch AR glasses in the next two to three years

Meta 首席執行官馬克·扎克伯格在 SIGGRAPH 2024 大會上討論了對 AR 眼鏡的願景。他希望在未來兩三年推出一系列價格不同的 AR 眼鏡,並內置人工智能助手,使其具備廣泛的能力。此外,他還提到了 Meta 人工智能助手和 Meta 大語言模型版本的改進。扎克伯格還表示,Facebook 和 Instagram 將繼續實現更多的人工智能功能。
智通財經獲悉,週一,在丹佛舉行的 SIGGRAPH 2024 大會上,Meta(META.US) 首席執行官馬克·扎克伯格與英偉達 (NVDA.US) 首席執行官黃仁勳討論了對 AR 眼鏡的願景,該眼鏡可以將許多技術整合到一個輕薄的設計師鏡框中。他希望最終能推出一系列價格不同的 AR 眼鏡,這取決於它們能夠執行的任務;它們將內置人工智能助手,在保持時尚的同時具備廣泛的能力。扎克伯格説:“我們的 Ray-Bans 眼鏡無法容納所有的技術。我們離成功越來越近了,可能還需要兩三年的時間。我們希望它們看起來很棒。”
扎克伯格還討論了人工智能對 Meta 產品的影響。扎克伯格説:“我們會有 Meta 人工智能助手,但我們希望我們的客户創建自己的助手。我們稱之為 AI Studio,它是一套工具,允許每個用户創建自己的 AI 版本。一天只有那麼多時間。我們不可能每天都和我們需要的人互動。但我們可以創造一個基於我們自己的助手,可以與人互動。”
他還表示,Meta 大語言模型 Llama3 和 Llama4 版本將更加流暢,不再像聊天機器人一樣。黃仁勳表示:“今天的人工智能是回合制的。你給它輸入,它就會反饋給你。未來,人工智能將能夠進行規劃。”
扎克伯格説:“我們看到的一個有趣的用途是人們使用人工智能模型來提供支持。我們看到許多人使用 Meta AI 來扮演困難情境。比如如何向老闆要求升職,這就為處理這類情況提供了一個自由判斷的空間。” 他補充説,隨着技術的發展,Facebook 和 Instagram 將繼續實現更多的人工智能功能。
