苹果将在iPhone上安装ChatGPT;中国大模型团队首登ICLR演讲 | AI 头条

301d3b05ef678c503d08af1a3530a6f4.gif

整理 | 王轶群

出品 | AI 科技大本营(ID:rgznai100)

beffe274e325e2ae25246a0685805e91.png

一分钟速览新闻点!

  • OpenAl 开发 AI 语音助手以赶超 Google 和 Apple

  • Apple 即将与 OpenAI 达成协议,在 iPhone 上安装 ChatGPT

  • 中国大模型团队首度登上 ICLR 主旨演讲,智谱AI 分享面向 AGI 三大技术趋势

  • Debian Linux 取消人工智能贡献政策

  • 云 GPU 提供商 CoreWeave 在伦敦开设了其欧洲总部,新一轮融资中估值达190亿美元

  • 软银愿景基金的美国投资组合已缩水近290亿美元,孙正义计划进军人工智能和芯片领域

  • 通义千问2.5已正式上线网页端,其开源大模型下载量已经超700万

4329fd5c8e4cdc7c73c1496b0e59d97c.png

全球 AI 要闻

OpenAl 开发 AI语音助手以赶超 Google 和 Apple

OpenAI 宣布将于太平洋时间5月13日上午10点进行直播,演示“一些 ChatGPT 和 GPT-4 更新”,Sam Altman 称这些更新“不是GPT-5,不是搜索引擎”。

在人工智能交流领域的竞赛中,OpenAl正准备向公众展示一项新技术,这种技术能够通过声音及文字与人类交流,并能识别物体与图像。根据两位已经见过新版 Al 的人士透露,这家 ChatGPT 的开发者已向部分客户展示了其包括优于现产品的逻辑推理能力在内的多项新能力。

这项技术是 OpenAl 首席执行官 Sam Altman 旨在最终开发出类似于 Spike Jonze 电影《她》中虚拟助手那样的高度响应性 Al的重要一步,也是旨在让现有的语音助手,比如 Apple 的 Siri,变得更加实用的尝试。该公司有望在下周一的某个活动中首次公开展示这种升级后的 AI,此举有助于它在Google 下周晚些时候发布一系列 AI新闻之前抢得先机。(9to5google、The Information)

Apple 即将与 OpenAI 达成协议,在 iPhone 上安装 ChatGPT

在苹果公司软件工程高级副总裁 Craig Federighi 和苹果公司机器学习与人工智能战略高级副总裁 John Giannandrea 花了数周时间测试 ChatGPT 并发现 Siri 已经过时之后,苹果公司将生成式人工智能作为一个支柱项目  。苹果计划宣布,在公司十年来最重大的重组之后,它将把生成式人工智能引入 iPhone。

据知情人士透露,苹果公司已接近与 OpenAI 达成协议,在 iPhone 上使用其技术,这是将人工智能功能引入其设备的更广泛努力的一部分。

知情人士表示,苹果公司与OpenAI一直在敲定在苹果下一代 iPhone 操作系统 iOS 18 中使用 ChatGPT 功能的协议条款。苹果还与 Alphabet Inc. 旗下的谷歌就授权该公司的 Gemini 聊天机器人进行了谈判。这些讨论尚未达成协议,但仍在进行中。苹果计划在 6 月份举办年度全球开发者大会,在人工智能领域引起轰动。(纽约时报、彭博社)

中国大模型团队首度登上 ICLR 主旨演讲,智谱AI分享面向AGI三大技术趋势

北京时间5月9日晚,在 ICLR 2024 会场,GLM 大模型技术团队受邀发表题为 The ChatGLM's Road to AGI 的主旨演讲,全面阐述 GLM 大模型面向 AGI 三大技术趋势。这是中国大模型团队首度登上 ICLR 主旨演讲环节。

  • GLM-4 的后续升级版本即GLM-4.5及其升级模型,应当基于超级认知(Superintelligence)和超级对齐(Superalignment)技术。GLM 大模型团队认为,文本是构建大模型最关键的基础,但下一步则应该把文本、图像、视频、音频等多种模态混合在一起训练,构建真正原生的多模态模型,同时超级对齐(Superalignment)技术将协助提升大模型的安全性。

  • 为解决更加复杂的问题,GLM 大模型团队提出 GLM-OS 概念,即以大模型为中心的通用计算系统。在 ICLR 现场,GLM 大模型团队详细阐述了 GLM-OS 的实现方式:基于已有 All-Tools 能力加上内存记忆(memory)和自我反馈(self-reflection) 机制,GLM-OS 有望实现模仿人类的 Plan-Do-Check-Act 循环。

  • GLM 大模型团队还在现场讲解了自2019年以来团队就一直在研究的名为 GLM-zero 的技术。GLM-zero 旨在研究人类的“无意识”学习机制。人脑中存在着反馈 (feedback) 和决策 (decision-making) 两个系统,分别对应着大模型和内存记忆两大部分,GLM-zero 的相关研究将进一步拓展人类对意识、知识、学习行为的理解,换而言之,尽管还处于非常早期的研究阶段,但 GLM-zero 可以视为通向 AGI 的必经之路,这是 GLM 大模型团队第一次向外界公开这一技术趋势。

除了阐述 GLM 大模型面向AGI的三大技术趋势,GLM 大模型技术团队在 ICLR 主旨演讲中还回顾了国产自研大模型 ChatGLM 的演进之路,向现场近2000名与会嘉宾与学者介绍了 GLM 系列大模型多项前沿研究成果,涵盖数学、文生图、图像理解、视觉UI理解、Agent 智能体、涌现现象等领域。(News快报)

Debian Linux 取消人工智能贡献政策

5 月 8 日,Tiago Bortoletto Vaz 写道 ,很明显“我们在 Debian 官方关于在项目中使用生成式人工智能的立场上还远未达成共识”。他感谢那些发表评论的人,并表示他希望“在我们更好地理解这一切的后果时”再次展开辩论。

4 月份,出于版权、道德和质量方面的考虑,Gentoo Linux 项目禁止使用生成式 AI/ML 工具。Debian 采取类似政策的提案表明,人们对此类工具明显缺乏喜爱,尽管似乎也很少有贡献者支持彻底禁止它们。Vaz于5月2日在 Debian 项目邮件列表上发起 讨论,建议该项目应考虑采用使用 AI/ML 工具生成内容的政策。Vaz 表示,他担心 Debian 由于此类内容而“在某些领域已经面临负面后果”,或者在短时间内就会出现这种情况。一番讨论后,最终奥尔伯里表示,他认为没有必要制定新政策。如果出现垃圾泛滥,“我们有足够的机制来投诉并要求其停止,而无需制定新政策”。(LWN)

云 GPU 提供商 CoreWeave 在伦敦开设了其欧洲总部,新一轮融资中估值达190亿美元

GPU 云领域的领跑者之一 CoreWeave 表示已在一轮融资中筹集了11 亿美元,其估值较去年12月报道的70亿美元几乎增加了两倍。CoreWeave 在一轮巨额融资中估值达190亿美元。随后该公司在伦敦开设了一个办事处,作为其欧洲总部。此外,Coreweave 表示,作为 10 亿英镑(约合12.5 亿美元)投资的一部分,今年将在英国开设两个数据中心,这是该公司在美国以外的首个数据中心。(TechCrunch)

软银愿景基金的美国投资组合已缩水近 290亿美元,孙正义计划进军人工智能和芯片领域

孙正义(Masayoshi Son)的日本软银集团旗下愿景基金(Vision Fund)日前悄悄出售或减记了数十亿美元的上市公司持股,总金额缩水了接近290亿美元。据知情人士透露,公司创始人孙正义正从曾经热衷的风险投资交易转向半导体和人工智能领域的战略投资。

此外,愿景基金还在去年将所持芯片设计公司 ARM.US 的股份出售给软银。愿景基金还在逐步减持印度初创企业 Paytm 和中国商汤科技集团的股份,目前软银在这两家公司的持股比例都不到5%。

据知情人士透露,孙正义正在出售该基金投资组合中的资产,为可能进军人工智能和相关硬件领域做准备。孙正义将目光投向了新的领域,其部分原因是受到 Arm 成功的启发。自去年上市以来,这家芯片设计公司的市值飙升至1060亿美元左右,使软银90%的持股价值超过了整个软银集团。目前,愿景基金将其在 Arm 的25%股份卖回给软银,以换取软银82亿美元的资本承诺。

目前,软银资产主要分为 Arm、阿里巴巴港股及美股、软银通讯公司、愿景基金第1、2期等。两个愿景基金和拉丁美洲基金共同管理的承诺资本超过1600亿美元。(彭博社)

通义千问2.5已正式上线网页端,下载量已经超700万

5月9日,阿里云正式发布通义千问2.5,并称模型中文性能全面赶超 GPT-4 Turbo。同时,通义还发布了1100亿参数开源模型 Qwen1.5-110B,该模型在MMLU、TheoremQA、GPQA等基准测评中超越Meta的Llama-3-70B,在 HuggingFace 开源大模型排行榜 Open LLM Leaderboard 上进入榜首。

同时,通义大模型品牌升级,“通义千问APP”更名为“通义APP”,集成通义大模型全栈能力,免费为所有用户提供服务。通义APP以性能媲美GPT-4 Turbo的基模为底座,并把通义实验室前沿的文生图、智能编码、文档解析、音视频理解、视觉生成等能力“All in one”,成为每个人的全能AI助手。

目前,通义千问2.5 已正式上线网页端,开放给注册用户使用。值得注意的是,在其官网下方小字显示的版本为V3.0.0。

3d5a67af9c84b40256b8adcacae8d0b5.png

2023年8月,通义宣布加入开源行列,随之沿着“全模态、全尺寸”开源路线陆续推出十多款模型,目前其开源模型下载量已经超过700万。目前,新东方、满帮、T3出行、企迈等都已接入通义千问大模型,小米 “小爱同学”也 与阿里云通义大模型展开合作。

a6d71fec1fe1cba33b731fd4e7edbc34.gif

  • 32
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
好的,以下是MIA、MICCAI、NIPS、CVPR、ICLR在2020到2021年的语义分割方面的一些高亮工作: 1. MIA:2021年的MIA会议上,一篇名为“U^2-Net: Going Deeper with Nested U-Structure for Salient Object Detection”的论文提出了一种基于U-Net结构的新模型U^2-Net,用于进行显著性目标检测。该模型结合了多级U结构和级联连接,能够更好地捕获显著性目标的细节信息。 2. MICCAI:2020年的MICCAI会议上,一篇名为“Multi-Objective Learning for Joint Optic Disc and Cup Segmentation in Retinal Images”的论文提出了一种多目标学习方法,用于联合分割视网膜图像中的视盘和杯状体。该方法结合了多任务学习和不同损失函数,能够在同时保持分割准确性和分割速度的情况下提高性能。 3. NIPS:2020年的NIPS会议上,一篇名为“Semi-Supervised Semantic Segmentation with Cross-Consistency Training”的论文提出了一种半监督语义分割方法,用于利用大量未标注数据来提高分割性能。该方法结合了交叉一致性训练和自监督学习,能够在只有少量标注数据的情况下实现高质量的分割结果。 4. CVPR:2021年的CVPR会议上,一篇名为“Semantic Image Synthesis with Spatially-Adaptive Normalization”的论文提出了一种基于空间自适应归一化的语义图像合成方法。该方法能够在保留输入图像的语义信息的同时,合成具有所需语义标签的图像。 5. ICLR:2021年的ICLR会议上,一篇名为“From Few to More: Large-scale Few-shot Segmentation with Knowledge Propagation”的论文提出了一种基于知识传递的小样本语义分割方法。该方法能够利用大规模未标注数据和少量标注数据来训练模型,同时通过知识传递来提高模型的泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值