自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

深数研究院

人工智能与机器学习

  • 博客(25)
  • 资源 (1)
  • 收藏
  • 关注

原创 10分钟理解大模型的量化

量化是大模型领域中的一项关键技术,它通过降低模型参数的精度,将浮点数转换为整数或定点数,从而实现模型的压缩和优化。

2024-09-06 14:00:00 1836

原创 大家都谈的Scaling Law是什么?

一个农场里有一群火鸡,农场主每天中午十一点来给它们喂食。火鸡中的一名科学家观察到这个现象,一直观察了近一年都没有例外,于是它也发现了自己宇宙中的伟大定律:“每天上午十一点,就有食物降临。”它在感恩节早晨向火鸡们公布了这个定律,但这天上午十一点食物没有降临,农场主进来把它们都捉去杀了。

2024-09-06 09:31:09 733

原创 COT思维链,TOT思维树,GOT思维图,这些都是什么?

我认为COT能够以比较低的代价解决一些幻觉问题。但是TOT和GOT太fancy了,个人认为不太适合实际应用。与其这么复杂的prompt engineering,还不如换一个好的模型。

2024-09-04 15:00:00 1814

原创 开发大模型or使用大模型?

大模型的更新让人眼花缭乱,但整个大模型的生态圈,其实是分工明确的.大部分的大模型从业者都是在使用大模型,而不是在开发基座大模型.

2024-09-04 09:35:26 988

原创 大模型有哪些评估指标?

你可能听说过A大模型比B大模型好,但你知道如何评估这些模型吗?在大模型领域,有许多指标可以帮助我们评估模型的性能。这些指标可以帮助我们了解模型的准确性、效率和可解释性。在本文中,我们将介绍一些常用的指标,以及如何使用它们来评估模型的性能。

2024-09-02 15:00:00 1526

原创 大模型的参数高效微调(PEFT),LoRA微调以及其它

相较于基础大模型动辄万卡的代价,微调可能是普通个人或者企业少数能够接受的后训练大模型(post-training)的方式。微调是指在一个预训练模型(pre-training)的基础上,通过少量的数据和计算资源,对模型进行进一步训练,以适应特定的任务或者数据集。

2024-09-02 09:23:41 1028

原创 复变函数在大模型中的应用

我还记得实习时做自我介绍时,我说我的研究方向是复分析。面试官不太了解,我便解释说,这是关于对 -1 开平方得到的虚数 i 的研究。在人工智能领域,经常会用到的数学知识包括矩阵、概率论和一些微积分。然而,最近在研究大模型的位置编码时,我惊讶地发现了复分析的应用,10年前的记忆逐渐浮现。

2024-08-30 09:49:40 1477

原创 大模型的latency(延迟)和throughput(吞吐量)有什么区别?

Latency:延迟,指的是从输入到输出的时间,即从输入到输出最后一个 token 的时间;Throughput:吞吐量,指的是单位时间内处理的任务数,即每秒处理的 token 数。

2024-08-30 09:33:23 955

原创 FlashAttention v2相比于v1有哪些更新?

FlashAttention V2在减少计算量和内存访问的同时,保持了算法的精度和效率,实现了更快的Attention计算。这些优化使得V2版本在A100 GPU上前向传播的速度提升了大约2倍,达到了理论计算峰值的50%-73%。

2024-08-28 10:21:59 750

原创 从欧拉公式的美到旋转位置编码RoPE

RoPE非常巧妙的借助复平面和欧拉公式,将位置信息编码到了query和key向量中,使得模型能够利用上token之间的相对位置信息。RoPE的设计思路是将query和key向量进行旋转,这就是旋转的由来。

2024-08-28 09:47:23 864

原创 最美的数学公式-欧拉公式

也许你在某些场合听说过欧拉公式,也许你干脆对数学不感冒。机缘巧合下,你点开了这篇文章,大致浏览了下然后关闭,继续为自己的工作学习忙碌。这不妨碍你暂停忙碌的脚步,欣赏她的美。若干年后,你应该不曾记得看过这篇文章,但你会记得数学界有一个很美的公式。

2024-08-26 19:15:58 867

原创 什么是大模型的位置编码Position Encoding?

位置编码(Positional Encoding)是一种在处理序列数据时,用于向模型提供序列中每个元素位置信息的技术。在自然语言处理(NLP)中,尤其是在使用Transformer模型时,位置编码尤为重要,因为Transformer模型本身并不包含处理序列顺序的机制。位置编码的主要目的是让模型能够区分输入序列中词的顺序,从而更好地理解句子的结构和含义。.

2024-08-26 18:55:46 851

原创 CRUD/ETL工程师的末日?从NL2SQL到ChatBI

2024Q2陆续有互联网大厂chatbi落地的消息传出:比如阿里云+一汽落地了chatbi报表体系;火山引擎在飞书发布了datawind chatbi工具,支持在制定数据集上的chatbi能力。在ChatBI落地中,会遇到哪些问题,该如何解决呢?

2024-08-22 19:49:18 679

原创 我是怎么通过2022下半年软考高级:系统架构设计师考试的

我感觉2021年以后的选择题和之前的选择题还是有很大区别的,2020年之前的选择题,做题的时候基本都能拿个60+,但是21年的题只有50多分,22年的考试只有49分。考第一门的时候,题越做越慌,前面的题基本都是没有复习到的,只能排除掉1-2个错误答案,还好后面的题都是复习到的重点题。第二题,软件维护的方法,做过但是没有准备;心里有点慌张,我在第二题和第四题之间徘徊,最后,因为我本身是做AI的,再加上我之前做过数据湖,数据仓库,也准备过数据治理的论文,我准备将之前准备的东西再改造下,出一篇湖仓一体的论文。

2024-08-22 19:42:00 827

原创 大模型落地难点之幻觉

大模型出现幻觉,简而言之就是“胡说八道”。用《A Survey on Hallucination in Large Language Models》文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。

2024-08-21 16:41:15 1076

原创 Langchain向左,扣子向右

对于很多人来说,langchain和扣子更像是面向两类人群的工具,langchain作为当下最流行的agent开发框架,面向大模型应用开发者;而扣子,更多的是娱乐性质的,玩家可以以最低无代码--只用prompt engineering的方式捏自己的bot,并分享到社群。而现在,随着类似扣子类平台API的深入开发,langchain的地位受到了挑战。

2024-08-21 16:34:58 887

原创 大模型落地难点之输出的不确定性

大模型的token生成本质上是基于概率的,当输入完全一致的时候,输出也会不一样。

2024-08-19 19:16:33 1029

原创 大模型output token为什么比input token贵?

近年来,许多商业大模型的价格不断下降,但你是否注意到一个关键细节:output token 的价格通常比 input token 高出几倍。这背后究竟是什么原因呢?

2024-08-16 22:54:42 268

原创 大模型落地难点之结构化输出

当需要把大模型嵌入到工作流中(尤其是原有的工作流),就需要大模型和原工作组件进行交互,在这种情况下,我们期望大模型的输出是结构化数据(Json)

2024-08-16 22:22:48 959

原创 10分钟私有化部署大模型到本地

如今, 私有化部署一个大模型早已不是什么有门槛或技术含量的工作了,更多的只是一种信息差而已。照着这个教程来,即使小白也可以在本地部署大模型。

2024-08-14 16:58:42 516

原创 为什么会发展出Multi-Query Attention和Group-Query Attention?

如果你看GPT系列的论文,你学习到的self-attention是**Multi-Head Attention**(MHA)即多头注意力机制,MHA 包含h个Query、Key 和 Value 矩阵,所有注意力头(head)的 Key 和 Value 矩阵权重不共享。这个机制已经能很好的捕捉信息了,为什么会继续发展出MQA和GQA?

2024-08-13 19:06:59 246

原创 如何评判大模型的输出速度?首Token延迟和其余Token延迟有什么不同?

如果你使用商用大模型,或者使用开源大模型本地化部署,除了生成的质量之外,另外一个关键的指标就是生成token的速度。而且并不是简单的每秒生成多少个token,而是拆成了两个阶段: 1. prefill:预填充,并行处理输入的 tokens。 2. decoding:解码,逐个生成下一个 token。

2024-08-12 19:52:34 1276

原创 (万字长文)Prompt Engineering-解锁大模型的力量

你知道周期性函数只要满足狄利克雷条件,傅里叶级数就能完美地表示它;你知道在没有观测之前,原子处于衰变和未衰变的叠加状态,因此薛定谔的猫也处于既死又活的叠加状态,直到有人打开盒子进行观测;你知道世事洞明皆学问,人情练达即文章;你知道如何让800公斤的牛安全地通过一座承重700公斤的桥;你知道夏目漱石将“I Love You”翻译成“今晚月色真美”;面对喜欢的人时,你却不知道从何说起。每次打开聊天框,脑海里浮现的只有简单的“在吗?”

2024-08-07 22:09:06 545

原创 过去式就能越狱大模型?一文了解大模型安全攻防战!

男人不坏,女人不爱。这句话在谈恋爱领域不知道是不是真的,在人工智能领域倒是先应验了。「人工智能不坏,人类不爱。」

2024-08-06 19:26:08 926

原创 看懂FlashAttention需要的数学储备是?高考数学最后一道大题!

多年以后,面对FlashAttention,你会忍不住想起高三上学期的那节数学课。那时,暑假刚刚结束,烈日当空,教室里就像蒸笼一样,连空气都懒得流动。阳光透过窗帘的缝隙,像个顽皮的小孩,时不时跳到黑板上,给老师的公式镀上一层金边。老师在黑板前唾沫横飞,激情四溢地讲述着什么“等比数列”和“极限”,而你的脑袋却飞到了食堂,幻想着中午能不能抢到那份热气腾腾的番茄炒蛋。

2024-08-06 15:32:05 630

deeplearningai学习笔记

整理的deeplearning.ai的学习笔记,后续我会一致更新,我用tex写的,所以排版还行

2018-04-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除