谷歌(GOOG)新AI大语言模型PaLM2训练数据量达3.6万亿个token 为前一代5倍

频道:资讯 日期: 浏览:53

谷歌(GOOG)日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。

0 留言

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。