自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

产品老A,6年互联网大厂AIPM,专注探索新型人机交互

老A是谁?——AI领域多年从业经验,见证了AI的沉寂和崛起。 热爱AI技术和产品,更热爱分享,希望将知识传递给更多人。 坚信AI的力量,致力于推动AI技术的应用和普及。

  • 博客(279)
  • 资源 (8)
  • 收藏
  • 关注

原创 大语言模型开源数据集

本文目标:汇聚目前大语言模型预训练、微调、RM/RL、评测等全流程所需的常见数据集,方便大家使用,本文持续更新。文章较长,建议收藏后使用。

2024-04-09 15:32:25 2690 1

原创 Cyber Weekly #20

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-08-18 21:56:24 830

原创 Cyber Weekly #19

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-08-12 00:04:16 562

原创 Cyber Weekly #18

赛博周刊 (Cyber Weekly),每周日发布,欢迎关注、点赞、收藏、评论。

2024-08-04 22:27:54 994

原创 Cyber Weekly #17

赛博周刊 (Cyber Weekly),每周日发布,欢迎关注、点赞、收藏、评论。

2024-07-28 23:13:36 611

原创 Cyber Weekly #16

赛博周刊 (Cyber Weekly),每周日发布,欢迎关注、点赞、收藏、评论。

2024-07-21 21:56:15 1022

原创 Prompt Engineering:超详细提示工程指南

Prompt Engineering(PE)就像是炼丹师的魔法配方,好的PE能够激发大模型的涌现能力,给人灵光一现的惊喜。下面我们就从OpenAI和它的死对头Anthropic给出的官方PE指南出发,了解好的PE应当遵循的基本原则,然后再介绍目前非常流行且有效的“CO-STAR框架”,最后再针对性地给出9个适合不同场景的9个PE框架。

2024-07-21 16:37:21 799

原创 GraphRAG:一种新型的RAG技术

微软前几天发布的 GraphRAG 架构非常厉害,但是具体的原理和内容可能不太好理解。Neo4j 的 CTO 写了一篇详细的文章《GraphRAG 宣言:为 GenAI 增加知识》,通俗易懂的介绍了 GraphRAG 的原理、与传统 RAG 的区别、GraphRAG的优势、知识图谱的创建和利用知识图谱工作。

2024-07-18 15:41:28 2045

原创 Cyber Weekly #15

赛博周刊 (Cyber Weekly),每周日发布,欢迎关注、点赞、收藏、评论。

2024-07-14 22:06:47 927

原创 如何用AI做副业?

无论是打工,还是创业,赚钱才是硬道理,拥有可持续的「睡后收入」才是我们孜孜不倦追求的目标。

2024-07-14 12:25:25 1265

原创 LLM应用:行业大模型

大语言模型正在朝着两个方向发展,一个是以ChatGPT为代表的通用大模型,另一个则是行业大模型(或称为“专业大模型”)。如果大模型的演化分为阴阳两面,通用大模型更像是阳面,受众更广、更to C端,以个人助手、AI搜索为代表;行业大模型像是是阴面,受众都是行业专业人士、也更to B端,其中以各种医疗专业助手、法律专业助手为典型。

2024-07-10 19:09:05 743

原创 Cyber Weekly #14:WAIC 2024

赛博周刊 (Cyber Weekly),每周发布,本周的主题是「2024 世界人工智能大会」,欢迎关注、点赞、收藏、评论。

2024-07-07 20:36:01 1052

原创 LLM应用:传统NLP任务

​LLM出来以后,知乎上就出现了“传统NLP已死”的言论,但是传统NLP真的就被扔进历史的垃圾桶了吗?

2024-07-03 22:57:55 1123 1

原创 LLM应用:推荐系统

随着信息的不断丰富,搜索和推荐成为了我们日常最长用到的两个功能,搜索是用户主动发起的信息查找需求,推荐则是平台根据用户标签/行为或用户query推荐给用户信息,用户是被动消费内容。

2024-07-03 22:35:04 991

原创 Cyber Weekly #13

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-06-30 22:00:43 1011

原创 混合专家模型(MoE)的前世今生

​在文章《聊聊最近很火的混合专家模型(MoE)》中,我们简单介绍了MoE模型的定义和设计,并且比较了MoE和Dense模型的区别,今天我们继续来回顾一下MoE模型发展的历史和最新的发展现状。

2024-06-30 11:45:59 1147

原创 使用Perplexity打造产品的27种方式

ChatGPT和Perplexity等聊天机器人正迅速成为产品经理的首选助手。以下是一份全面的指南,介绍PM如何在日常工作中使用Perplexity,该指南基于300多份回复和30次电话后的总结。

2024-06-30 08:58:04 713

原创 做AI搜索的55条建议,务必收藏

目前大模型产品落地真正形成共识的只有AI搜索,自从Perplexity发起了对搜索霸主谷歌的强势挑战,国内外大大小小做搜索的厂商,都推出了内置于原搜索结果的AI总结功能,譬如谷歌的AI Overviews、微软的new bing、百度的AI伙伴、360的AI搜索等等,除此之外,还有类似于Perplexity做AI Native搜索产品的秘塔AI搜索、天工AI搜索,一时间AI搜索成了本次GenAI落地的“当红炸子鸡”。

2024-06-27 11:10:17 770

原创 RAG优化策略

​在文章《大语言模型落地的关键技术:RAG》中,我们初步了解了RAG的基本概念、发展历史、系统组成以及评估方法,本文将着重讲解LLM落地面临的困难以及RAG技术的优化策略。

2024-06-25 23:54:03 1120

原创 非强化学习的对齐方法

在文章《LLM对齐“3H原则”》和《深入理解RLHF技术》中,我们介绍了大语言模型与人类对齐的“3H原则”,以及基于人类反馈的强化学习方法(RLHF),本文将继续介绍另外一种非强化学习的对齐方法:直接偏好优化(DPO)。

2024-06-25 20:50:27 687

原创 深入理解RLHF技术

在《LLM对齐“3H原则”》这篇文章中,我们介绍了LLM与人类对齐的“3H”原则,但是这些对齐标准主要是基于人类认知进行设计的,具有一定的主观性。因此,直接通过优化目标来建模这些对齐标准较为困难。本文将介绍基于人类反馈的强化学习方法(RLHF),引入人类反馈的指导,以便更好地对齐大语言模型。

2024-06-24 20:50:42 834

原创 LLM对齐“3H原则”

在大语言模型的学习过程中,如何确保大语言模型的行为与人类价值观、人类真实意图和社会伦理相一致成为了一个关键研究问题,通常称这一研究问题为人类对齐(Alignment)。

2024-06-24 19:53:21 1108

原创 Cyber Weekly #12

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-06-23 21:18:32 894

原创 指令微调数据集构建方法

指令微调(Instruction Tuning),是指使用自然语言形式的数据对预训练后的大语言模型进行参数微调,在一些文章中也称为有监督微调(Supervised Fine-tuning,SFT)或多任务提示训练(Multitask Prompted Training)。指令微调的第一步就是收集或构建指令化的实例,然后通过有监督的方式对LLM的参数进行微调,经过指令微调后,大语言模型能够展现出较强的指令遵循能力,可以通过零样本学习(zero-shot)的方式解决多种下游任务。

2024-06-23 17:53:32 1487

原创 Apple Intelligence:苹果大模型部署方案

一文了解苹果大模型部署方案,包括设备端LLM、云端LLM和第三方LLM(如ChatGPT)。

2024-06-17 20:49:25 1419

原创 Cyber Weekly #11

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-06-16 20:41:38 825

原创 LLM自动化对齐技术

近年来,大语言模型(LLMs)的快速发展,极大地重塑了人工智能的格局。一致性是塑造与人类意图和价值观相对应的LLMs行为的核心,例如,教导LLMs遵循响应过程中“有帮助(Helpful)、无害(Harmless)和诚实 (Honest)”的原则(称为“3H原则”)。因此,为了满足人类的需求,LLMs必须“与人类对齐(Alignment)”,这也使得RLHF成为LLM的热点研究方向。

2024-06-12 15:06:08 801

原创 Cyber Weekly #10

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-06-09 21:47:33 1037

原创 万字长文|OpenAI模型规范(全文)

​本文是继《OpenAI模型规范概览》之后对OpenAIModel Spec的详细描述,希望能对各位从事大模型及RLHF研究的朋友有帮助。万字长文,建议收藏后阅读。

2024-06-08 22:44:02 1414

原创 OpenAI模型规范概览

这是OpenAI对外分享的模型规范文档(Model Spec),它定义了OpenAI希望在API接口和ChatGPT(含GPT系列产品)中模型的行为方式,这也是OpenAI超级对齐团队奉行的行为准则,希望能对国内做RLHF的同学有帮助。

2024-06-07 19:10:00 1058

原创 Cyber Weekly #9

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-06-02 21:05:44 1088

原创 强烈推荐|分享6款小而美的图片美化工具

给大家分享6个我日常用到的图片美化软件,都是免费且好用的,如果大家觉得有用,求一个点赞+收藏,如果点赞+收藏超过60,后续我会继续分享,谢谢大家~

2024-06-02 15:36:34 265

原创 大模型训练十诫

​Google 在线文件 Ten Commandments To deploy fine-tuned models in prod,总结了大模型训练的十条戒律,提供了一些指导原则和建议。

2024-05-30 17:03:52 324

原创 聊聊最近很火的混合专家模型(MoE)

MoE架构的核心思想是将一个复杂的问题分解成多个更小、更易于管理的子问题,并由不同的专家网络分别处理。这些专家网络专注于解决特定类型的问题,通过组合各自的输出来提供最终的解决方案,提高模型的整体性能和效率。

2024-05-29 15:32:24 1722

原创 Cyber Weekly #8

赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-05-26 20:30:54 786

原创 Cyber Weekly #7

本周是AI圈最热闹的一周,也是AI应用大规模爆发的前夜。赛博周刊 (Cyber Weekly),每周发布,欢迎关注、点赞、收藏、评论。

2024-05-19 23:55:08 943

原创 Cyber Weekly #6

赛博周刊 (Cyber Weekly),每周日晚上发布,欢迎关注、点赞、收藏、评论。

2024-05-12 17:25:25 559

原创 Cyber Weekly #5

赛博周刊 (Cyber Weekly),每周一上午发布,欢迎关注、点赞、收藏、评论。

2024-05-05 23:56:18 848

原创 推荐书单|提升境界、思维能力

推荐书单,提升个人境界、思维能力。

2024-05-05 17:19:26 448

原创 分享一篇关于AGI的短文:苦涩的教训

回顾学习强化学习之父、加拿大计算机科学家理查德·萨顿( Richard S. Sutton )2019年的经典文章《The Bitter Lesson(苦涩的教训)》。

2024-05-04 07:44:18 971

EKF估计SOC

EKF估计SOC的matlab程序,EKF全称ExtendedKalmanFilter,即扩展卡尔曼滤波器,一种高效率的递归滤波器(自回归滤波器)。

2018-01-23

精通正则表达式

精通正则表达式,正则全掌握

2016-10-18

统计学习方法-机器学习必备书籍

统计学习方法-机器学习必备书籍

2016-10-18

改变未来的九大算法

2016-05-30

皇帝新脑-有关电脑、人脑及物理定律

皇帝新脑-有关电脑、人脑及物理定律

2016-05-30

web前端必备手册

若无法显示,请点击文档属性->解除锁定

2016-05-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除