每日一看大模型新闻(2024.1.16)网易有道:自研RAG引擎QAnything开放下载;开源大模型XVERSE-Long-256K,支持输入25万汉字;对标OpenAI GPT-4,MiniMax

产品发布

1 Stability AI发布30亿参数代码模型

发布日期:2024.1.16

Stable Code 3B: Coding on the Edge — Stability AI

主要内容:Stability AI发布了30亿参数的代码模型Stable Code 3B,这是此前发布的Stable Code Alpha 3B模型的后续版本,专为代码补全而设计。据介绍,Stable Code 3B的性能与Meta的Code Llama 7B相匹配,但体积缩小了60%。它的基座模型是在4万亿个token的自然语言数据上训练得到的,并在此基础上进行了进一步训练。Stable Code 3B适用于多种语言,支持中间填充功能(FIM)和扩展上下文大小等功能,并且可以在PC端实时运行。

模型地址https://huggingface.co/stabilityai/stable-code-3b

2 网易有道:自研RAG引擎QAnything开放下载

发布日期:2024.1.16

又一大模型技术开源!有道自研RAG引擎QAnything正式开放下载

主要内容:网易有道宣布他们自主研发的知识库问答引擎QAnything正式开源。QAnything的主要原理是基于检索增强的生成(RAG),支持云端大模型服务调用,也支持纯本地部署。用户可以在开源社区Github内免费下载该系统。该系统支持多种文档格式,包括Word、PPT、Excel、PDF、图片等,用户可以直接导入这些格式的文档进行问答。

下载地址GitHub - netease-youdao/QAnything: Question and Answer based on Anything.

3 腾讯人像生成器PhotoMaker开源

发布日期:2024.1.16

主要内容:来自南开大学、腾讯、东京大学等机构的研究团队开源了人像生成器PhotoMaker,相关论文于12月7日发表在arXiv。据介绍,PhotoMaker是一种高效的个性化文本到图像生成方法,它将任意数量的输入ID图像编码为堆栈ID嵌入,以保存ID信息。通过将艺术绘画、雕塑或人物的老照片作为输入,PhotoMaker可以将艺术品/老照片中的人物带入现实、在保留ID属性的同时进行风格化、改变年龄或性别、混合不同人像的特征并以一定的比例输出新特征的人像等。

GitHub地址GitHub - TencentARC/PhotoMaker: PhotoMaker

论文地址https://arxiv.org/abs/2312.04461

4 摩尔线程:AI创作绘本“摩笔天书”开放邀测

发布日期:2024.1.16

主要内容:摩尔线程旗下的AI多模态创作工具“摩笔天书”现已对外开放邀请测试。该工具是基于摩尔线程全功能GPU开发的AI内容生成解决方案。目前,开放的是“摩笔天书”儿童绘本PC Web版,该测试版本以少儿类题材内容为训练样例。用户可以通过输入标题和简要的故事大纲,一键生成完整故事、绘本图片、旁白、字幕、背景音乐等素材,并自动合成图文绘本故事和视频绘本故事

体验地址摩笔天书

5 元象:开源大模型XVERSE-Long-256K,支持输入25万汉字

发布日期:2024.1.16

全球最长开源!元象开源大模型XVERSE-Long-256K,无条件免费商用!

主要内容:元象发布了全球首个上下文窗口长度达到256K的开源大模型XVERSE-Long-256K,支持输入25万汉字。该模型完全开源,无条件免费商用,并提供训练教程。据介绍,XVERSE-Long-256K支持超长文本输入,可用于大规模数据分析、多文档阅读理解、跨领域知识融合。在角色扮演或聊天应用中,它可以缓解模型“忘记”之前对话的记忆力问题,或者解决“胡说八道”的“幻觉”问题。此外,该模型还能更好地支持智能体(AI Agent)基于历史信息进行规划和决策,并帮助AI原生应用保持连贯、个性化的用户体验。

体验地址元象大模型 XChat

6 智谱AI推出GLM-4 All Tools和GLMs

发布日期:2024.1.16

智谱 AI 推出新一代基座大模型 GLM-4,能力逼近 GPT-4,配备多模态、长文本和智能体 | 极客公园

主要内容:智谱AI推出了GLM-4 All Tools和GLMs。GLM-4 All Tools实现了根据用户意图自动理解规划复杂的指令,自动调用多项工具来完成复杂任务,包括文生图、代码解释器、网页浏览、Function Call等。这意味着GLM系列模型的全家桶能力实现了工业化,开发者和用户可以更轻松地使用GLM-4模型,不再为提示词而担心。

同时,智谱AI宣布GLMs个性化智能体定制能力同时上线,基于GLM-4模型,只要登录智谱清言,使用简单的提示词指令就能创建属于自己的智能体。在同期上线的智能体中心中,用户可分享各种智能体。没有编程基础的用户也能实现大模型的便捷开发。

7 对标OpenAI GPT-4,MiniMax 国内首个 MoE 大语言模型全量上线

发布日期:2024.1.16

对标OpenAI GPT-4,MiniMax 国内首个 MoE 大语言模型全量上线_腾讯新闻

主要内容:MoE(Mixture-of-Experts)架构是一种集成方法,通过将问题划分为多个子任务并训练一组专家来处理每个子任务。这种架构可以提高模型在复杂任务下的表现。MiniMax发布了一个基于MoE架构的大模型abab6,其参数量比前一版本大了一个量级,可以更好地处理复杂任务。MiniMax还自研了高效的MoE训练和推理框架,并发明了一些MoE模型的训练技巧。测评结果显示,abab6在三个测试集中均明显好于前一代模型abab5.5,并在指令遵从、中文综合能力和英文综合能力上大幅超过了GPT-3.5。

8 开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

发布日期:2024.1.16

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

主要内容:开源大模型性能持续进步,从Llama系列到Mixtral 8x7B。Mistral AI的Mixtral 8x7B在多数基准测试中超越Llama 2 70B和GPT-3.5,被认为接近GPT-4。最近,Nous Research宣布他们的新模型Nous-Hermes-2 Mixtral 8x7B在多个基准上超过了Mixtral Instruct,达到SOTA性能。该模型在100万个条目及AI领域开放数据集的其他高质量数据上训练,分为两个版本:Nous Hermes 2 Mixtral 8x7B SFT和Nous Hermes 2 Mixtral 8x7B DPO。Nous Research原为志愿者项目,近期完成520万美元种子融资。他们计划2024年推出Nous-Forge AI编排工具,产品定位是连接和运行程序,获取和分析客户文档,生成合成数据供生产使用。通过这些算法,为客户提供隐藏的市场脉搏信息

  • 40
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值