
OpenAI 創始人呼籲設立監管超級智能的國際機構
當地時間 5 月 22 日,OpenAI 的創始人山姆·奧特曼、總裁格雷格·布羅克曼和首席科學家伊利亞·蘇茨克沃通過公司博客聯合撰文,稱人類必須緩和當今人工智能技術的風險,超級智能將需要被特殊對待和協調。他們在這篇題為《超級智能的治理》的文章中寫道,“我們最終可能需要類似於 IAEA 的東西來進行超級智能方面的努力;任何超過一定能力門檻的努力都需要接受國際權威機構的檢查,要求進行審計,測試是否符合安全標準,對部署程度和安全級別進行限制,等等。”