自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 字节的扣子今日上线,一分钟教你快速上手!

千呼万唤始出来,2月1日,国服版coze终于上线。在此之前,我写过两次文章介绍Coze,第一次接触扣子的朋友可以先看看,目前扣子刚上线,还没有Coze成熟。1.白嫖GPT4和Dalle3?字节的COZE来了!附快速上手教程:2.目前扣子官方还没有发布出来教程,可以来知识库看看~另外会不定期分享大家创作的,以及一些!

2024-05-14 22:18:13 673

原创 国内免费 AI 绘画工具:字节跳动的 Dreamina

有没有想过,如果有一天,你可以轻轻松松地创作出好看的绘画作品,即使你连画笔都没怎么拿过?嘿,说不定这一天就在今天。字节跳动,这家大家都不陌生的科技企业,最近打造出了一款 AI 绘画工具——。体验地址已附在文末它不仅仅是你的数字绘画好帮手,而且相比于其他市面上的AI绘画工具,比如 Midjourney,Dreamina 有自己的独到之处。首先,,只需要手机号码注册或者使用抖音扫码即可进行使用。其次,Dreamina 能做到的,不只是简单地将文字转换为图像,它更注重用户体验,界面简洁直观,操作便捷。

2024-05-13 22:32:36 981

原创 LLM 大模型学习必知必会系列(一):大模型基础知识篇

2023 年,随着 LLM 技术的发展,中国模型研究机构的开源模型迎来了爆发式的增长:2023 年 3 月,智谱 AI 首先在魔搭社区发布了 ChatGLM-6B 系列,ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

2024-05-10 14:49:58 1074

原创 AI大模型微调训练营

xia讠果☛大模型微调技术介绍LLM微调是一个将预训练模型在较小、特定数据集上进一步训练的过程,目的是精炼模型的能力,提高其在特定任务或领域上的性能。微调的目的是将通用模型转变为专用模型,弥合通用预训练模型与特定应用需求之间的差距,确保语言模型更贴近人类的期望。以OpenAI的GPT-3为例,这是一个为广泛的自然语言处理(NLP)任务设计的先进LLM。假设一家医疗组织希望使用GPT-3来帮助医生从文本笔记生成患者报告。

2024-05-09 17:48:57 482

原创 书单 | AI大模型的饕餮盛宴,系统学习大模型技术,你想要的书都在这里了

要说现在最热门的技术,可谓非大模型莫属!不少小伙伴都想要学习大模型技术,转战AI领域,以适应未来的大趋势,寻求更有前景的发展~~然而,在学习大模型技术这条道路上,却不知道如何进行系统的学习,所以本期书单就为大家奉献一场,从大模型理论基础到大模型工具应用,构建自己的LLM应用程序……应有尽有,如果你是AI小白,想要从入门开始学起,或者想要了解AI未来的发展趋势,也有相应的图书哦~~**▊《**张奇,桂韬,郑锐,黄萱菁 著解码大语言模型奥秘,引领机器智能新时代。

2024-05-08 20:41:56 658

原创 大模型论文—大型语言模型持续学习综述

最近在静态、预先收集的通用数据集上训练的大型语言模型 (LLM) 的成功引发了许多研究方向和应用。其中一个方向解决了将预训练的 LLM 集成到动态数据分布、任务结构和用户偏好中的重要挑战。预先训练的 LLM 在针对特定需求量身定制时,通常会在以前的知识领域中经历显着的性能下降——这种现象被称为“灾难性遗忘”。虽然在持续学习 (CL) 社区中进行了广泛的研究,但它在 LLM 领域提出了新的表现形式。在本次调查中,我们全面概述了CL背景下LLMs的当前研究进展。本调查分为四个主要部分:我们首先描述了持续学习 L

2024-05-04 08:00:00 168

原创 大模型论文—PreTTY:无需训练的多语言模型对齐

*****

2024-05-03 08:45:00 146

原创 大模型论文—SEED-Bench-2-Plus:多模态大语言模型评测

理解文本丰富的视觉内容对于多模态大型语言模型 (MLLM) 的实际应用至关重要,因为文本丰富的场景在现实世界中无处不在,其特点是图像中嵌入了大量文本。最近,具有令人印象深刻的多功能性的 MLLM 的出现提高了我们对 MLLM 的期望标准。然而,由于目前的MLLM基准测试主要侧重于评估一般的视觉理解,因此尚未全面客观地评估他们在文本丰富的场景中的熟练程度。在这项工作中,我们介绍了 SEED-Bench-2-Plus,这是一个专门设计用于评估 MLLM 的 \textbf{text-rich visual co

2024-05-02 10:15:00 549

原创 大模型论文:弱变强模型对齐加速方法

假设我们手头有一个受过适度训练的 LLM(例如,经过训练以符合人类的偏好),我们能否进一步利用它的潜力并廉价地获得更强大的模型?ExPO 假设中等对齐模型可以在对齐较少(较弱)的模型(例如初始 SFT 模型)和较好对齐(较强)的模型之间进行插值,从而通过从前两个相对较弱的模型的权重中推断直接获得该更强的模型。在 AlpacaEval 2.0 基准测试中,我们表明 ExPO 推动使用较少偏好数据(例如,10% 或 20%)训练的模型达到甚至超过完全训练的模型,而无需任何额外的训练。

2024-05-01 09:15:00 105

原创 AI大模型新应用:阿里巴巴推出AgentScope多智能体开发平台

在多智能体应用开发的浪潮中,阿里巴巴通义实验室近日开源了一款创新的编程框架与开发平台——AgentScope。该平台专为多智能体应用开发者设计,旨在提供高易用的编程体验、稳定可靠的运行时保障,并为开发者提供分布式和多模态的技术支持。AgentScope内置了OpenAI、DashScope、Gemini、Ollama等多种不同平台的模型API,深度兼容当下的大模型开源生态。

2024-04-29 18:05:57 775

原创 国产“Sora”火了!效果对标OpenAI

与市面上其他“类Sora”模型不同,「Vidu」的长视频生成是直接且连续的,无需中间的插帧和拼接处理,实现了“一镜到底”的流畅感。面向未来,「Vidu」灵活的模型架构将能够兼容更广泛的多模态能力,为AI视频生成技术的发展开启更多可能。它不仅突破了视频生成时长的限制,更在保持视频画面连贯流畅的同时,避免了穿模、鬼影等常见问题,实现了人物和场景的时空一致性。在AI视频生成技术领域,一个由生数科技与清华大学联合研发的国产模型「Vidu」横空出世,以其卓越的性能和创新技术,迅速成为全球关注的焦点。

2024-04-29 17:21:56 218

原创 AIGC已经让普通人开始赚钱 | 中国AIGC产业峰会

在AIGC时代之下,一家算法公司到底该如何盈利?这,或许就是当下大模型大浪潮推至应用为王阶段,每一个“玩家”应该思考的最直接的问题。针对这一问题,小冰公司COO徐元春在中国AIGC产业峰会中,结合自身的数字人与大模型技术,带来了小冰公司在实践中所总结的最新思考。为了完整体现徐元春的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。中国AIGC产业峰会是由量子位主办的行业峰会,20位产业代表与会讨论。

2024-04-25 10:48:40 696

原创 “摄影ChatGPT”将至?

2024最wow的AI生图工具出现了!对“青春纪念手册”下手,你就说这味儿正不正宗:不信谁没有,谁也别说谁。别着急,下一秒“啪”的一下:……什么情况?这,就是最近摄影圈不少人都在玩的AI修图神器——。据说,无需事先上传多张图训练专属模型,打开直接上传一张图随便P。最近它还快速迭代升级了一波产品,圈子里更热闹了。有网友试过后直呼内行,毕竟用它来应对顾客的奇葩需求简直不要太。像是服务丝巾阿姨这类客户,超能画布的生图效果也绰绰有余了:‍这么神奇的AI工具量子位自然也是不能错过(doge)。

2024-04-25 10:35:50 994

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除