
谷歌 PaLM 2 在訓練中使用的文本數據是其前身的近五倍
美港電訊 APP 5 月 17 日訊,據美國消費者新聞與商業頻道(CNBC)5 月 17 日消息,谷歌上週宣佈的大型語言模型 PaLM 2 使用的訓練數據幾乎是其前身的五倍,使其能夠執行更高級的編碼、數學和創意寫作任務。根據 CNBC 查看的內部文件,PaLM 2 是谷歌在 I/O 大會上推出的新型通用大型語言模型,它接受了 3.6 萬億個 token 的訓練。谷歌之前版本的 PaLM 於 2022 年發佈,並接受了 7800 億個 token 的訓練。