GPT-4o,代表着“omni”(全能),是OpenAI在多模态交互能力方面的一次重大突破,也标志着人工智能技术的一次质的飞跃。
GPT-4o最大的突破在于第一次端到端的实现,从输入端到输出端是连贯的、整体性的,怎么去理解端到端背后的技术呢?根据OpenAI公开的信息,他们训练了一个跨越音频、视觉、文本模态的端到端模型,这意味着所有的输入与输出都经过同一个神经网络。该模型能够接收多种模态的输入,如文本、音频、图片、视频等,并生成相应的多模态内容输出,如文本、音频、图像、视频等。这种全能的交互方式,使得GPT-4o在理解和回应用户需求时更加精准和高效。GPT-4o的实时互动能力令人印象深刻。它能够即时回应问题,无需等待,提供类似真人的对话体验。它以极快的速度响应音频输入,平均响应时间仅为320毫秒,与人类在自然对话中的响应时间相差无几。更多的GPT-4o在对话过程中,不等用户说完就会做出回应,用户开始说话时它会停下来,并通过听觉判断何时停顿、何时接话、何时打断以及何时沉默。这不仅依赖于多模态交互的能力,也需要多通道的输入和输出同时进行。 GPT-4o能够处理多种语音风格,包括语速、语调和表达形式(如歌唱);它还具备识别和理解喘气声的能力,并能够作出相应反应。此外,GPT-4o还可以发出非语音性的声音,如笑声,增强互动性和自然性,并进行情感化的表达。这表明GPT-4o经过大量音频数据的训练,基本上可以理解为GPT-4o掌握了声音世界的语言。一方面,它实现了语音和语言的对齐,使得语言到语音的转换更加自如;另一方面,它能够生成各种声音,如笑声、猫叫声,甚至音乐。然而,这也带来了潜在的安全问题,GPT-4o通过少量的样本就可以模仿你的声音,随之而来的问题大家都可以预见。在GPT-4o的发布会上,有一个演示场景是多人会议,GPT-4o仅通过聆听每个人的发言,就能够分别总结出不同说话人的身份和内容。这里的关键挑战不仅在于分辨不同的说话人,还在于当询问话者A的发言内容时,注意力机制能够在上下文中找到该话者所说的内容。 你可能会问,上述端到端的技术已经足够智能,那它带来的影响是什么,仅仅是使AI的交互速度更快吗?不,它代表的是终端智能时代的到来。过去,语音对话的延迟、外界环境干扰、其他人声干扰等问题将不再成为障碍。类似谷歌眼镜、AI PIN、智能耳机、智能汽车等终端智能产品将很快遍地开花。此外,GPT-4o不仅能够处理文本、音频,还能理解实时视频,实现真正的无缝多模态交流,新一代人机智能交互将以此为起点快速爆发。