OpenAI 利用 GPT-4o 推出更快、更便宜的人工智能模型 – 《爱尔兰时报》

OpenAI 正在推出更快、更便宜的人工智能模型版本,以支持其聊天机器人 ChatGPT,这家初创公司致力于在日益拥挤的市场中保持领先地位。

在周一的直播活动中,OpenAI 首次推出了 GPT-4o。 它是 GPT-4 模型的更新版本,该模型已经推出一年多了。 新的大型语言模型经过来自互联网的大量数据的训练,将更好地实时处理文本、音频和图像。 这些更新将在未来几周内提供。

该公司表示,当口头提出问题时,系统可以在几毫秒内回复音频响应,从而使对话更加流畅。 在模型演示中,OpenAI 研究人员和首席技术 Mira Murati 仅用他们的声音与新的 ChatGPT 进行了对话,表明该工具可以进行回复。 在演示过程中,聊天机器人似乎几乎可以立即将语音从一种语言翻译成另一种语言,并一度根据要求演唱了故事的一部分。

“这是我们第一次在交互性和易用性方面实现巨大飞跃,”穆拉蒂告诉彭博新闻社。 “我们确实让您能够与 ChatGPT 等工具进行协作。”

GPT-4o 的发布有望撼动快速发展的人工智能领域,而 GPT-4 仍然是该领域的黄金标准。 越来越多的初创企业和大型科技公司,包括 Anthropic、Cohere 和 Alphabet 旗下的谷歌,最近推出了人工智能模型,他们称这些模型在某些基准测试中的性能匹配或超过了 GPT-4。

OpenAI 首席执行官 Sam Altman 在周一罕见的博客文章中表示,虽然 ChatGPT 的原始版本暗示了人们如何使用语言与计算机交互,但使用 GPT-4o 感觉“本质上不同”。

“感觉就像电影中的人工智能; 对我来说,它是真实的仍然有点令人惊讶,”他说。 “事实证明,达到人类水平的响应时间和表达能力是一个巨大的变化。”

GPT-4o(“o”代表全向)不是依靠不同的人工智能模型来处理不同的输入,而是将语音、文本和视觉结合到一个模型中,使其比其前身更快。 例如,如果您向系统提供图像提示,它可以用图像进行响应。 该公司表示,新模型的速度提高了两倍,效率也显着提高。

“当三种不同的模型协同工作时,就会在体验中引入大量延迟,从而破坏体验的沉浸感,”穆拉蒂说。 “但是,当您拥有一种可以跨音频、文本和视觉进行本地推理的模型时,您就可以消除所有延迟,并且可以与 ChatGPT 进行交互,就像我们现在进行交互一样。”

但新模型遇到了一些障碍。 当研究人员在演示过程中讲话时,音频经常被中断。 人工智能系统还让观众感到惊讶的是,在指导研究人员解决代数问题的过程后,它用一种听起来轻浮的声音插话:“哇,你穿的衣服真像。”

OpenAI 开始向一些付费 ChatGPT Plus 和 Team 用户推出 GPT-4o 的新文本和图像功能,并将很快向企业用户提供这些功能。 该公司将在未来几周内向 ChatGPT Plus 用户提供新版本的“语音模式”助手。

OpenAI 表示,作为其更新的一部分,它还允许任何人访问其 GPT 商店,其中包括用户制作的定制聊天机器人。 此前,它仅适用于付费客户。

最近几周,有关 OpenAI 下一次发布的猜测已成为硅谷的一场游戏。 一款神秘的新型聊天机器人出现在基准测试网站上并似乎可以与 GPT-4 的性能相媲美后,引起了人工智能观察者的轰动。 Altman 眨眼提到了 X 上的聊天机器人,助长了他的公司幕后黑手的谣言。 周一,一名 OpenAI 员工在社交平台 X 上证实,神秘聊天机器人确实是 GPT-4o。

周五,该公司平息了一些谣言,称不会立即推出 GPT-5,这是其模型的备受期待的版本,科技界的一些人预计该模型的能力比当前的人工智能系统要强大得多。 它还表示,周一的活动不会推出新的搜索产品,即可以与谷歌竞争的工具。 消息传出后,谷歌股价上涨。

但活动结束后,奥特曼很快就继续猜测。 “我们很快就会有更多的东西可以分享,”他在 X 上写道。 – 彭博社

1715698859
2024-05-14 09:13:07
#OpenAI #利用 #GPT4o #推出更快更便宜的人工智能模型 #爱尔兰时报

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​