OpenAI的首席科学家伊利亚·萨茨克弗(Ilya Sutskever)在宣布后一个小时的视频通话中对GPT-4团队成员说:“你知道,这是一件我们目前无法真正评论的事情。”。“这里的竞争相当激烈。”
GPT-4是一个多模态大型语言模型,这意味着它可以响应文本和图像。给它一张你冰箱里的东西的照片,问它你能做什么,GPT-4会尝试用图片上的食材制作食谱。Sutskever说:“如果你给它看一个表情包,它就能告诉你为什么它很有趣。”
注册等待列表的用户和为ChatGPT Plus付费的订阅者可以使用GPT-4,但只能使用有限的文本。
艾伦人工智能研究所(Allen Institute for AI)的奥伦·埃齐奥尼(Oren Etzioni)表示:“许多方面的持续改进都是显著的。GPT-4现在是评估所有基础模型的标准。”
“在过去几年里,一个好的多模态模型一直是许多大技术实验室的圣杯,”Thomas Wolf说道,他是Hugging Face的联合创始人,Hugging Face是开源大型语言模型背后的AI初创公司布卢姆“但它仍然难以捉摸。”
理论上,结合文本和图像可以让多模态模型更好地理解世界。沃尔夫说:“它可能能够解决语言模型的传统弱点,比如空间推理。”。
目前尚不清楚GPT-4是否如此。OpenAI的新模型似乎比ChatGPT更擅长一些基本的推理,可以解决一些简单的难题,比如用以相同字母开头的单词总结文本块。在电话会议期间的演示中,我看到GPT-4总结了OpenAI网站上的公告,用了以g开头的词:“GPT-4,突破性的世代增长,取得了更高的成绩。获得了护栏、指导和收获。巨大、突破性和全球天赋。”在另一个演示中,GPT-4收到了一份关于税收的文件,并回答了有关问题,并列举了其答复的理由。