前言
昨天凌晨OpenAI的发布会,直接杀疯了,全方位让全世界看到了Chatgpt的实力。
发布会最核心的新模型:GPT-4o,和基于GPT-4o打造的全新ChatGPT
1. 新模型GPT-4o
GPT-4o,这个o就是"Omni",omnimodel指的就是文字、语音、图片、视频统一的模型,这是跟以往的GPT-4V最大的区别。
GPT-4o可以实时推理音频、视觉和文本,注意这里是实时,推理的不是文本,是音频!视觉!
这个GPT-4o的文本、代码能力还基本能跟GPT-4 Turbo打平。
2. 新ChatGPT
新版的ChatGPT得益于GPT-4o新模型,在语音对话中,几乎没有延迟,而且可以随时插嘴,模型实时响应。
模型可以听懂你的情绪、甚至人的喘息声和呼吸,跟真人一模一样,甚至,它还能模拟机器人和唱歌的声音。
OpenAI做到了直接语音输入语音输出,不再需要语音到文本的转换,它还有了视觉,直接打开摄像头,可以实时看发生了什么。
《流浪地球2》中Moss的一切,正在我们面前真实的发生。不仅可以打开摄像头,还可以基于OpenAI新推出的Mac客户端,直接看屏幕,对着屏幕直接写代码。
甚至,可以直接视频对话,“她”可以看到你所有的表情和情绪变化。
未来几周内,OpenAI会在ChatGPT Plus中推出新版语音模式GPT-4o的alpha版。让我们期待一下更强的Her出现吧
磊子的原版chatg.p.t镜像站
原版chatg.p.t镜像站,不用qiang(官方版本:支持3.5和4plus,插件,多模态,文生图、GPTS)
相关登录GPT或者无痛使用GPT方式,可以私聊磊子获取,磊子镜像站第一时间更新官方原版功能
结语
OpenAI他们用GPT-4o依然证明了,他们是AI届的王者。新版的ChatGPT,在我看来,这是"Moss"的诞生。
相关登录GPT或者无痛使用GPT方式可以私聊磊子获取,磊子镜像站第一时间更新官方原版功能。
感谢关注,欢迎点赞转发!
磊子,一名专注分享干货,关注人工智能前沿动态和资讯的Al博主。