OpenAI首席执行官Sam Altman透露,下一代大语言模型GPT-5将拥有更好的推理能力、更高的准确性和视频支持。
在比尔·盖茨的播客《Unconfuse Me》中,奥特曼解释说,下一代模型将是完全多模式的,具有语音、图像、代码和视频支持。
在谈话中,他还表示,许多有关不可靠响应或模型无法正确理解查询的问题都将得到解决。
“话进来,话出去。图片。最终是视频,”奥特曼在谈到未来版本的人工智能模型时说道。“显然,人们真的想要这样。我们推出了图像和音频,其反应比我们预期的要强烈得多,”他解释道。
GPT-5是什么?
除了 Altman 和其他人的暗示外,我们对GPT-5知之甚少。预计它将成为真正的多模式模型,类似于谷歌的新 Gemini Ultra。
OpenAI去年开始训练 GPT-5,Altman 暗示这将比 GPT-4 有重大改进,特别是在理解复杂查询和现实世界的能力方面。
奥特曼告诉比尔·盖茨:“至少在未来 5 年或 10 年里,我们将处于陡峭的改进曲线上,这是这些模型中最愚蠢的。”
会是超级智能吗?
包括 OpenAI 在内的许多最大的人工智能实验室都将通用人工智能 (AGI) 作为最终目标。创造一种比人类更聪明、能力更强的超级智能。
早期有人认为 GPT-5 可能是某种形式的超级智能,但现在围绕该模型的猜测表明,它将是我们已经在 GPT-4、Anthropic 的 Claude 2 或 Google 的 Gemini Ultra 中拥有的人工智能类型的更好版本。
也就是说,它将具有更好的推理能力,可能不仅在许多学术评估上优于人类,而且还具有超越人类智能的一定程度的理解能力。
这也可能是通向 AGI 的下一步。据称,在周五 Y-Combinator W24 活动上的演讲中,Altman 告诉在场的创始人和企业家,他们应该抱着 AGI 将“相对较快”实现的心态进行建设。