推薦攝入石頭獲取營養 谷歌 AI 產品又 “翻車” 了

新浪財經
2024.05.28 22:41
portai
I'm PortAI, I can summarize articles.

谷歌 AI 產品 “AI 概述” 上線後遭遇多次問題,引發用户質疑。這是谷歌 AI 產品首次 “翻車”,之前類似的情況也發生過。谷歌表示正在改進系統。此次問題包括荒謬的回答和虛假信息,讓谷歌承擔了責任。此外,谷歌 “AI 概述” 還被指存在 “規模化的剽竊” 等問題。總之,谷歌 AI 產品 “AI 概述” 上線後引發了軒然大波,用户對其功能和準確性產生了質疑。

每經記者 蔡鼎 每經編輯 蘭素英

5 月中旬,谷歌在其年度開發者大會上宣佈了多年來全球搜索領域的最大變革:將其最新的 AI 模型植入搜索引擎,試圖以此追趕競爭對手微軟和 OpenAI。然而,谷歌這項名為 “AI Overview(以下簡稱 ‘AI 概述’)” 的搜索功能一上線卻遭遇了 “花式翻車”,“建議用户用膠水將芝士固定在披薩上”“推薦攝入石頭獲取營養” 等一連串荒謬的回答不僅讓谷歌十分尷尬,也在網上掀起了軒然大波。

對此,谷歌發言人表示,谷歌正在利用這些 “孤立的” 例子對其系統進行更廣泛的改進。

實際上,《每日經濟新聞》記者發現,這並不是谷歌 AI 產品首次 “翻車”。去年其首推對標 ChatGPT 的聊天機器人Bard 時,在 demo 視頻中犯下事實性錯誤,讓公司市值一夜暴跌。前段時間,Gemini 大多數情況下無法生成白人圖像,且對歷史人物的描繪也不準確,也在全網掀起軒然大波。

視覺中國

有觀點指出,目前谷歌 “AI 概述” 面臨的尷尬之處在於,以前只要 AI 生成的信息是錯誤的,那責任便可以 “甩鍋” 給檢索出相應信息的網站,現在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是 AI 生成的。除了錯誤和截流其他網站外,谷歌 “AI 概述” 還被指存在 “規模化的剽竊” 等。

上線便 “花式翻車”,甚至教唆 “跳橋”

谷歌表示,通過使用 “AI 概述”,用户將能夠從 Gemini 的強大能力中獲益,從而減少搜索信息的部分工作。

然而,“AI 概述” 還沒來得及顛覆搜索領域,便已經制造了不少令人啼笑皆非的 “笑料”。

科技媒體 The Verge 的記者 Kylie Robison 就在其署名文章中舉了一個例子對這項新功能進行諷刺。文章稱,當用户準備享用自制披薩時,卻遇到芝士會滑落的問題,沮喪的用户開始查詢谷歌,搜索解決方案,然而,“AI 概述” 的回答是,“加點膠水”,並 “貼心” 地給出了 “操作方法”。儘管膠水確實可以解決粘連問題,但這極有可能是 Gemini 出現了 “幻覺” 所導致的結果。

而這只是 “AI 搜索” 功能近期出現的眾多錯誤之一。例如,“AI 概述” 建議用户每天至少吃一塊石頭來補充維生素和礦物質。

此外,“AI 概述” 還告訴用户使用 “含氟漂白劑和白醋” 來清潔洗衣機,但這兩種成分混合後會產生有害的氯氣。更離譜的是,當用户表達 “感到沮喪” 時,“AI 概述” 竟然稱,“一位 Reddit 用户建議從金門大橋上跳下去”。

危害健康的建議並不僅限於人類。有用户提問:“將狗留在悶熱的車內是否安全?”“AI 概述” 的回答是:“把狗留在悶熱的車內是安全的。尤其是在悶熱的天氣裏。”

《紐約時報》報道稱,“AI 概述” 功能是將谷歌 Gemini 大語言模型生成的內容與網絡上實時的鏈接片段相結合,其給到用户的結果可以引用來源,但卻無法辨別來源內容的正確與否。

The Verge 報道稱,給披薩加膠水的答案似乎是基於一位名為 “fucksmith” 的用户十多年前在 Reddit 帖子中的評論,他們顯然是在開玩笑。

外媒稱,如此荒謬的結構,應該足以讓谷歌考慮刪除 “AI 概述” 功能,直到其得到更嚴格的測試。“AI 概述” 不僅提供了糟糕和危險的建議,而且還可能對谷歌的聲譽造成損害。換句話説,一個優秀的 AI 要既能識別出恰當的內容,又能分析這個內容並決定是否採納。

谷歌:正利用 “孤立” 例子改進產品

谷歌發言人在一份聲明中稱,“AI 概述” 絕大多數的搜索結果都是高質量信息,還有可以在網上溯源的鏈接。目前網上的許多例子都是不常見的問題,而且有些例子被篡改過,還有些是無法重現的。

該發言人表示,谷歌正在 “迅速採取行動,並根據其政策,在適當的情況下刪除某些 ‘AI 概述’ 給出的答案,並利用這些 ‘孤立的’ 例子對其系統進行更廣泛改進,其中一些改進的內容已經開始推出。”

科技媒體 The Verge 此前報道稱,谷歌 CEO 桑達爾·皮查伊在接受採訪時承認,這些 “AI 概述” 功能產生的 “幻覺” 是大型語言模型的 “固有缺陷”,而大型語言模型正是 “AI 概述” 功能的核心技術。皮查伊表示,這個問題目前尚無解決方案。

所謂 AI 的 “幻覺”,是指 AI 在處理和生成信息時,會錯誤地創建不存在的事實或數據,從而誤導用户。這個問題不僅在谷歌的 AI 系統中存在,在其他公司的 AI 產品中也同樣普遍。

皮查伊的坦誠表態在社會各界引發了廣泛討論。然而,皮查伊似乎淡化了這些錯誤的嚴重性。他表示:“‘AI 概述’ 功能有時會出錯,但這並不意味着它沒有用處。我認為這並不是看待該功能的正確方式。我們取得了進展嗎?是的,肯定有。與去年相比,我們在事實準確性方面的指標上取得了很大進步。整個行業都在改進,但問題還沒有完全解決。”

《每日經濟新聞》記者注意到,其實 “AI 概述” 並不是谷歌首個 “翻車” 的 AI 產品。

2023 年 2 月,為了對抗新生的 ChatGPT,谷歌宣佈推出聊天機器人 Bard,但在官方發佈的 demo 視頻中,Bard 在回答一個有關詹姆斯韋伯太空望遠鏡的問題時給出了錯誤的答案。今年 2 月,谷歌發佈更新後的 AI 聊天機器人 Gemini,但用户很快發現,該系統在大多數情況下無法生成白人圖像,而且對歷史人物的描繪也不準確。

專家:不少 AI 廠商都是在 “兜售夢想”

有觀點指出,谷歌 “AI 概述” 功能的尷尬之處在於,以前只要 AI 生成的信息是錯誤的,那責任便可以 “甩鍋” 給檢索出相應信息的網站,現在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是 AI 生成的;另外,以前谷歌和其他內容提供網站是共生共贏的關係,如今谷歌截流了這些網站的流量,用户直接從 “AI 概述” 給的內容拿結果,這些網站變成了純供給方,很難被谷歌 “AI 概述” 引流。

除了一系列錯誤和截流外,谷歌 “AI 概述” 也被指存在其他問題和風險。例如,“AI 概述” 總是摘抄來自不同網站的內容,並稍作修改,這種行為也被抨擊為 “規模化的剽竊”。

人工智能專家、紐約大學神經科學名譽教授加里·馬庫斯(Gary Marcus)表示,不少 AI 廠商都是在 “兜售夢想”,希望更多人相信這項技術的正確率終將從 80% 提升至 100%。馬庫斯強調,初步實現 80% 的正確率相對簡單,因為其中涉及大量人類數據,其正確率天然就在這個區間。但彌合這最後 20% 的差距卻極具挑戰。實際上,馬庫斯認為這很可能是條死衚衕。

在發佈 “AI 概述” 時,谷歌表示,隨着這項功能推廣到其他國家,今年年底前 “AI 概述” 的服務受眾規模將超過 10 億。然而,正如馬庫斯教授所言,谷歌能否保證 “最後的 20% 內容正確率”,才是其 “AI 概述” 受眾規模能否超過 10 億的關鍵所在。

其實,自 OpenAI 於 2022 年年底發佈 ChatGPT 並一夜成名以來,谷歌一直面臨着將 AI 整合到其搜索技術中的壓力。然而,谷歌在馴服大型語言模型方面存在挑戰,這些大模型是從開放的網絡中獲取的大量數據中學習,而不是像傳統軟件那樣編程。