Mistral AI发布新模型;Meta推第二代自研AI训练和推理芯片MTIA v2 | AI头条

45bae899cf72115afda172a64f60ce1a.gif

整理 | 王轶群

出品 | AI 科技大本营(ID:rgznai100)

af465cafe987203f4244c7a64b78c0b6.png

一分钟速览新闻点!

  • Meta 宣布推出第二代自研AI训练和推理芯片MTIA v2

  • Mistral AI 推出了最新的稀疏专家混合模型 Mixtral 8x22B

  • 谷歌计划将Magic Editor等AI编辑工具免费提供给所有谷歌照片用户

  • AMD第二代单芯片方案“通关”

  • 蚂蚁集团 CodeFuse 发布“图生代码”功能,超五成程序员用AI写代码

  • 昆仑万维旗下 Opera 全新 AI 服务器集群落地,大模型推理速度提高30倍

c8872aca5a46ee386086de919f9496e0.png

全球 AI 要闻

Meta 宣布推出第二代自研AI训练和推理芯片MTIA v2

据报道,Meta 宣布推出用于 AI 训练的下一代 Meta Training 和推理加速器芯片,并表示 MTIA v1 和新芯片均已投入生产。Meta 致力于 MTIA v2 已有一段时间了,该项目内部称为 Artemis。Meta 在其帖子中表示:“实现我们对定制芯片的雄心意味着不仅要投资于计算芯片,还要投资于内存带宽、网络和容量以及其他下一代硬件系统。”

Meta在一篇博客文章中表示,推理加速器 (MTIA) 是其长期计划的重要组成部分,该计划旨在围绕如何在其服务中使用人工智能来构建基础设施。该公司希望设计的芯片能够与其当前的技术基础设施和 GPU 的未来进步相配合。

Meta 于 2023 年 5 月发布了 MTIA v1,专注于向数据中心提供这些芯片。下一代 MTIA 芯片也可能瞄准数据中心。MTIA v1 预计要到 2025 年才会发布,但 Meta 表示这两款 MTIA 芯片现已投入生产。目前,MTIA 主要训练排名和推荐算法,但 Meta 表示,最终目标是扩展芯片的功能,开始训练生成式人工智能,例如 Llama 语言模型。Meta 表示,新的 MTIA 芯片“从根本上专注于提供计算、内存带宽和内存容量的适当平衡。” 该芯片将拥有 256MB 片上内存,频率为 1.3GHz,而 v1 的片上内存为 128MB 和 800GHz。Meta 的早期测试结果显示,在公司评估的四种型号中,新芯片的性能比第一代版本好三倍。(The Verge)

Mistral AI 推出了最新的稀疏专家混合模型 Mixtral 8x22B

Mistral AI 在 2023 年 12 月发布 Mixtral 8x7B 后,推出了最新的稀疏专家混合模型 Mixtral 8x22B。这是继GPT-4 Turbo with Vision和Gemini 1.5 Pro全面上市之后,过去几天市面上发布的第三个主要型号。Mistral AI选择在其X账号上放置一个 torrent 链接来下载和测试新模型。Mistral AI 公司于2023年6月筹集了欧洲有史以来最大的种子轮融资,并已成为人工智能领域的后起之秀。(VentureBeat)

谷歌计划将Magic Editor等AI编辑工具免费提供给所有谷歌照片用户 

4月10日,谷歌计划将以前仅限于 Pixel 手机和付费用户的 Magic Editor 和其他人工智能编辑工具免费提供给所有谷歌照片用户。这些工具将于 5 月 15 日开始推出,需要数周时间才能向所有 Google Photos 用户提供。此外,使用它们还需要一些硬件设备要求。在 ChromeOS 上,设备必须是 ChromeOS 版本 118+ 的 Chromebook Plus 或至少具有 3GB RAM。在移动设备上,设备必须运行 Android 8.0 或更高版本或者iOS 15或更高版本。(TechCrunch)

AMD第二代单芯片方案“通关”

AMD日前宣布推出第二代Versal AI Edge系列和Versal Prime系列,分别面向AI驱动型嵌入式系统和经典嵌入式系统。第二代Versal Prime系列通过将面向传感器处理的FPGA与高性能嵌入式 Arm CPU相结合,将标量计算能力提升10倍。

“第二代Versal自适应SoC的目的是提供面向AI驱动型以及经典嵌入式系统的中央计算,而第一代产品更多是边缘传感计算和CPU卸载,这是最大的不同。”Manuel Uhm最后表示,“AI已无处不在,AMD将全面融合CPU、GPU和FPGA优势,深度参与AI创新和发展,不断为无处不在的AI发展贡献力量。”

蚂蚁集团 CodeFuse 发布“图生代码”功能,超五成程序员用AI写代码

4 月 11 日,蚂蚁集团自研的智能研发平台 CodeFuse 推出“图生代码”新功能,支持开发人员用产品设计图一键生成代码,超五成程序员用AI写代码。蚂蚁集团正在内部全面推行 AI 编程,使用 CodeFuse 支持日常研发工作的工程师达到 50% 以上,这些工程师提交的代码中 10% 由 AI 生成。

昆仑万维旗下 Opera 全新 AI 服务器集群落地,大模型推理速度提高30倍

昆仑万维官微4月9日消息,近日,昆仑万维旗下海外信息分发及元宇宙平台Opera宣布,公司在冰岛凯夫拉维克部署了一套全新的、完全由绿色能源驱动的人工智能(AI)服务器集群。该集群能够为Opera提供先进的AI超级计算能力,并有效简化生产级AI应用的开发和部署过程,为Opera未来更多生成式AI服务打下基础。与上一代GPU相比,搭载NVIDIA H100 Tensor Core GPU的方案能让AI训练速度提高4倍,大语言模型推理速度提高30倍。

a6c1f6ca21859d6a93ccee3d676ad407.gif

4 月 25 ~ 26 日,由 CSDN 和高端 IT 咨询和教育平台 Boolan 联合主办的「全球机器学习技术大会」将在上海环球港凯悦酒店举行,特邀近 50 位技术领袖和行业应用专家,与 1000+ 来自电商、金融、汽车、智能制造、通信、工业互联网、医疗、教育等众多行业的精英参会听众,共同探讨人工智能领域的前沿发展和行业最佳实践。欢迎所有开发者朋友访问官网 http://ml-summit.org、点击「阅读原文」或扫码进一步了解详情。

11387465640c824cde75273533b238ae.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Mistral是一个开源的工作流引擎,用于管理复杂的、分布式的工作流任务。下面我将简要介绍Mistral的安装部署过程。 首先,我们需要准备以下基本要素: 1. 操作系统:Mistral可以运行在Linux和Windows操作系统上,但荐使用Linux系统,如Ubuntu。 2. Python环境:Mistral是基于Python开发的,所以我们需要安装Python和相关的依赖。 3. 数据库:Mistral需要一个数据库来持久化存储任务和工作流的状态信息,常用的选择是MySQL、PostgreSQL等。 接下来,我们可以使用pip命令来安装Mistral和相关的依赖包: ``` $ pip install mistral[mongodb,mysql,postgresql,redis]==<version> ``` 其中`<version>`是Mistral的版本号,根据实际情况进行选择。 安装完成后,我们需要进行一些配置工作,包括: 1. 配置数据库:将数据库的连接信息配置到Mistral的配置文件中。 2. 配置认证:Mistral支持多种认证方式,可以选择适合自己的方式进行配置。 3. 配置消息队列:Mistral使用消息队列来处理任务,可以选择RabbitMQ、Kafka等消息队列工具,并将其配置到Mistral中。 完成上述配置后,我们可以启动Mistral引擎: ``` $ mistral-server --config-file <config_file_path> ``` 其中`<config_file_path>`是Mistral的配置文件路径。 随后,我们可以使用Mistral提供的API或者命令行工具来创建和管理工作流任务。 需要注意的是,Mistral还提供了一些可选的插件和扩展,用于支持额外的功能和集成其他系统。在实际部署过程中,我们可以根据需求进行选择和配置。 总结而言,Mistral的安装部署过程包括准备基本要素、安装依赖、配置环境、启动引擎等步骤,通过合理的配置和使用,可以有效地管理和执行复杂的工作流任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值