OpenAI的12天发布会总结
第一天
- 发布了最新的o1模型,之前为o1-preview,该模型更加听取用户的反馈,提升多模态能力,并在发布会中介绍了其在多个数学、编码竞赛中的表现。速度上平均比o1-preview快60%
- 同时推出了ChatGPT Pro(200刀一个月),能够无限制访问最好的模型,还有专属的o1 pro 模式
第二天
- 推出模型定制的新方法-强化微调(Reinforcement Fine-Tuning),开发者可以用数千个甚至数十个高质量的任务微调创建擅长特定任务的模型,相比于SFT多了评估模型,强化学习能够让模型不仅仅记住数据,还能够优化推理思路
- 会上结合生物信息学应用的例子展示了通过强化微调创建模型
- 强化微调将在明年年初推出
第三天
- 推出全新文生视频工具 Sora Turbo
第四天
- 推出了Canvas,支持用户在写作和编程上与Chat GPT协作;支持修改、润色文章,评价文章;排查、解析、修改代码
- Canvas支持运行python代码
- 支持将Canvas嵌入到定制GPT中
第五天
- 介绍了ChatGPT 在苹果设备上的集成,包括在 iOS 和 Mac OS 系统中的多种应用方式,如 Siri 交互、写作工具和 iPhone 16 的相机控制等功能,并进行了实际操作演示
- 利用ChatGPT+相机学习了解周围的世界
第六天
- 提出语音视频功能,感觉是前一天的增强,可以实时视频连线ChatGPT,还可以实时分析共享的手机屏幕,发布会上说会尽快为puls和pro用户上线该功能
- 12期间有Santa老爷爷的语音聊天形象,实测安卓机也有,只是没有发布会上的视频聊天
第七天
- 推出projects功能,即项目空间,在这里可以统一管理一组相同主题的对话、Canvas等
- 同个project中的数据会统一参考,感觉是知识库+rag组装的一个功能
- 发布会上举例了些例子使用projects,第一个是一个调查问卷的项目组织,第二个感觉没啥实际意义,最后一个是提供一些材料然后用project来修改个人网站
- 实测我的网页版好像还没这个功能,可能是定向推送
第八天
- 之前推出的search功能开始向免费用户开放,即联网搜索
- 该功能在夸克上早就有了,不过夸克不会组合图片和视频,但纯文字信息方面感觉夸克上的体验更好一些,可能openai中文支持的不好,豆包支持的也很好,有视频嵌入
- 语音模式集成了搜索功能,语音模式对于免费用户是有限制使用,这个功能在豆包上感觉体验很好,也能实时搜索相关信息
第九天
- 主角是api
- o1更新,更强了点,推出o1的api,支持格式化json输出,函数调用
- API中还推出了开发者消息(区别于system message),用于引导模型
- 还推出了推理力度参数,用于控制模型的推理时长等,简单问题设置更小值可以更节省资源
- 支持视觉推理能力
- 语音api方面支持了网页实时通信协议 WebRTC,会上还展示了通过12行代码实现一个简单的实时语音通话助手,这比直接使用webSocket简单许多
- 推出了偏好微调Preference Fine-Tuning,一种新的模型定制方法,让模型更倾向于按某种偏好、形式、风格回复
第十天
- 推出拨打电话访问ChatGPT,仅美国用户
- 支持WhatsApp中发消息给ChatGPT
第十一天
- 上线与其它应用协作的模式,获取授权后能够完整读取其它应用的内容,能够与主流IDE和终端交互协作,还可通过语音协同
第十二天
- 跳过o2直接推出o3,能力方面各种吹
- ARC-AGI测试中,超过人类水平的标志线85%
- 很好用但也很贵,使用高性能模式单个推理任务要花费1000+美刀
- 推出了o3-mini,推理成本更低
- 目前o3和o3-mini正在进行安全测试,安全研究人员可以申请测试体验