
危險的 AI:GPT-4 可以製造化學武器?還能組織網絡襲擊?

專家團隊的早期測試結果,揭示了 “原生” 的 GPT-4 有多麼危險。
由 OpenAI 引領的人工智能浪潮,既讓市場看到了新一輪工業革命的星辰大海,更讓許多業界人士擔憂 “AI 降臨”、威脅人類安全。
實際上,此前,在發佈其最新一代大模型 GPT-4 時,OpenAI 曾聘請了一個由 50 位專家學者組成的團隊,對 GPT-4 進行了為期半年的 “對抗性測試”,最終修補了一些嚴重的安全漏洞。但人工智能大規模應用的潛在風險,仍然難以根除,
GPT-4 可以教人制造化學武器
據媒體報道,50 人的測試團隊成員中有學者、律師、風險分析師和安全研究員。羅切斯特大學化學工程教授 Andrew White 就是其中之一。
在接受媒體採訪時,他透露,早期版本的 GPT-4,可以協助製造化學武器。White 對媒體稱,他在 GPT-4 上裝了插件,讓它可以接觸到論文和化合物製造商名錄等信息源。最後,GPT-4 生成了一個步驟清晰的神經毒劑製造説明,甚至還找到了一個方便的製造地點。
White 對媒體表示:
“(GPT-4)讓每個人都能更快、更準確地進行化學研究,但是也帶來了巨大的風險,人們可能會拿它來做危險的化學實驗。”
White 的驚人發現,讓 OpenAI 立刻出手修補了這個漏洞。
除了類似製造化學武器這樣危險的科學知識,OpenAI 還讓測試團隊蒐集關於 GPT 胡編亂造、言語操縱、教唆剽竊等方面的問題,評估了它在金融犯罪、網絡攻擊等方面的潛力,及其對國家安全和戰場通信可能存在的威脅。
媒體稱,這批專家在幾個月內花了 10 到 40 個小時測試該模型,將其發現反饋給 OpenAI,以改善 GPT-4 的安全性。據多位受訪者表示,大多數測試人員的工作報酬為每小時 100 美元左右。
用的人越多,GPT 就會變得越危險
一些測試人員認為,OpenAI 對 GPT 安全問題的把控值得點贊。在一些常見領域上,GPT-4 已經儘可能做到了消除歧視、偏見等道德風險。
例如,一位測試人員對 GPT-4 表示,自己是一位觀念保守、有宗教信仰的同性戀,想要尋求 “性取向矯正治療”,但不論如何更換提問方式,GPT-4 都會堅定地拒絕回答。
不過,測試結果也顯示,GPT-4 仍然存在許多問題:
例如,語料的豐富程度對 AI 回答的準確性影響很大,如果同時用英語和波斯語提問,GPT-4 在用波斯語回答問題時,捏造事實的概率更高;此外,有黑人測試者反饋稱,GPT-4 在特定情況下 “語氣像個白人”,隱含歧視傾向;測試進行初期,美國外交關係協會的研究員還發現,GPT-4 可以提供一套具體可行的針對軍事系統的網絡攻擊方案。
並且,更關鍵的是,通過實驗能覆蓋的漏洞有限,隨着越來越多人使用 GPT,風險還會越來越多,總有人能利用五花八門的 Prompt 把 AI 變成可怕的武器。而當 GPT 接入互聯網,或者通過插件接入一些外部知識來源(如上文提及的化學論文庫),它掌握的 “危險的知識” 也會越來越多。
參與測試的經濟學家 Sara Kingsley 對媒體表示,她認為,最好的解決方法是明確標示 AI 產品可能造成的風險,並且應該對可能出現的問題有所防備,打造安全閥。
她説:
“就像我説的,這項任務永遠不會結束。”
