自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 为什么Manus不可能是下一个DeepSeek?

但从技术创新的扩散规律角度来看,Manus目前对于人工智能行业的真实影响力,到了此刻已经可以说,是绝对无法与DeepSeek的创新相提并论的。从其公开的宣传视频到首席科学家的快速回应以及一些科技博主的内测结果来看,展示的Demo就是一个相对比较完善的AI Agent,也就是去年火了大半年的AI智能体。当然也有人可能会说美国的关注不再重要,只是当一款产品都无法引发同行的关注和共鸣、只有一堆外行在欢呼国运的时刻,多少还是要保持谨慎和小心的。再退一万步说,既然是国运级的改变,那怎么也应该是百年不遇的大变局才对,

2025-03-07 19:37:58 802

原创 Manus的简单解析和深度吃瓜

从昨天晚上11点开始,就有朋友问我怎么看manus,我刚开始都愣住了,这是啥,我脑子里没有这个关键词啊?点开群和朋友圈才知道,原来是Monica团队发布了一个新产品,叫Manus。自从上次梳理过DeepSeek-R1的时间线之后,我对于这些时间线都非常敏感,所以这个帖子,我先简单说一下我的判断,再附上一些我认为靠谱的报道和整理。最后,根据小珺的播客,梳理一下他们的时间线,让大家可以有更多的谈资。AI领域,真是勃勃生机,万物竟发的状态。大家总归是要思考一下,在这样的新变化下,自己该如何快速适应新版本了。

2025-03-07 19:35:46 1173

原创 2025年最全的ai大模型面试,方法有点恶心,但是三小时背完能拿3个offer!

要先刷够300道再面,不能直接裸面八股文先总结一遍,做到非常熟悉练手三家即可,圈定好核心面试的公司,别面太多家,太累了别去不知名的小厂,不然影响简历太严重。

2025-03-06 14:43:23 779

原创 2025年ai大模型经典面试题Transformer 面试题总结 97 道!

保证100%免费。

2025-03-05 21:16:49 196

原创 2025年最新的大模型面试题【LLM】大模型面试准备-1(题库整理篇)

LLM(Large Language Model,大型语言模型)是指基于大规模数据和参数量的语言型。具体的架构可以有多种选择,以下是一种常见的大模型LLM的架构介绍:1.Transformer架构:大模型LLM常使用Transformer架构,它是一种基于自注意力机制的序列模型。Transformer架构由多个编码器层和解码器层组成,每个层都包含多头自注力机制和前馈神经网络。这种架构可以捕捉长距离的依赖关系和语言结构,适用于处理大规模语言数据。

2025-03-04 14:58:26 948

原创 2025年最新大模型基础面试知识

SGD(随机梯度下降)是最简单的优化算法,每次迭代时,它仅仅使用当前批次的梯度信息来更新模型的权重 AdamW是一种自适应学习率的优化器,它不仅考虑了当前批次的梯度信息,还考虑了过去的梯度的平方的移动平均值。每层都增加点可训练参数量,在主参数旁边增加个参数量很小,低秩的参数,(W+BA)x,A随机初始化,B输出0初始化。每次递归中,给定的上下文则是当前的状态,需要预测出的token则是行动,该token是从一个字典中选择的(编码的过程被称为tokenize),且该字典是有限的。第一种慢的要死,不如pp。

2025-03-03 20:14:07 722

原创 70多个实战项目,学大模型一定要知道的实战项目!!三天练完,你就牛了!

练习项目不仅是对原理和概念的加深理解,更是对如何结合业务,业务逻辑的深度理解。要落到实际的应用场景,肯定需要对应用场景本身有足够的了解。而要理解场景,需要对大模型有足够的知识积累和实战经验。而要做到这一点,你需要对所使用的大模型有足够的了解和项目实践经验。这些项目不仅收集了大模型训练实战,还有微调,分布式等训练,从6B到65B,从全量微调到高效微调,再到RLHF,涵盖得非常全面了。下文内容涉及到:LLM项目+学习笔记+电子书籍+学习视频,都已经打包好了。🧩 LLM应用开发🀄️ LLM国产化适配。

2025-03-02 21:26:24 300

原创 一文带你了解火遍全网的“AI大模型”

这里的关键是模型的大小和速度。从2020年起,中国的大模型进入了高速发展阶段,如今,中美两国大模型的数量占全球大模型数量的近90%,中国大模型数量已进入第一梯队。这就是大模型的一种,而大模型之所以大,正是因为参数量大,GPT-3的参数量1750亿,GPT-4的参数量达到1.8万亿。从去年到今年,可以这么说,AI模型进入了爆发期,这一时期的代表是大规模预训练模型,如GPT-3、BERT和T5等。,不管是技术的创新和成熟,还是应用的广泛认知,都可以看出来,AI大模型行业进入了一个新的发展阶段。

2025-02-28 21:33:12 442

原创 2025年最牛的提升10倍效率大模型的简单原理

Transformer是大模型的核心,其实是一个类神经网络,可以简单理解成一个函数,当然这个函数和我们f(x)= ax + b 这种只有两个参数的简单函数比起来复杂很多,有上亿个参数,里面的主要是矩阵的乘法,是线性代数里面的内容,对于线性代数比较熟悉的同学应该不难理解,我后面专门写一个Fransformer的简单原理简介,让不了解矩阵乘法的同学也可以基本了解Transformer的原理。上图中参数量Model size可以理解为大模型的天赋,而数据规模Data Size可学习的资料量是大模型的后天的努力。

2025-02-27 16:26:35 518

原创 学大模型一定要知道的实战项目!!三天练完,没有大模型难的住你

练习项目不仅是对原理和概念的加深理解,更是对如何结合业务,业务逻辑的深度理解。而要做到这一点,你需要对所使用的大模型有足够的了解和项目实践经验。去年侧重大模型和GPT的原理,今年就侧重项目实战了。找到的这个合集不仅收集了大模型训练实战,还有微调实战,分布式训练,真的很全。这些项目不仅收集了大模型训练实战,还有微调,分布式等训练,从6B到65B,从全量微调到高效微调,再到RLHF,涵盖得非常全面了。下文内容涉及到:LLM项目+学习笔记+电子书籍+学习视频,都已经打包好了。🔨 服务器基础环境安装及常用工具。

2025-02-26 15:38:42 244

原创 零基础如何学习AI大模型?一个月真能成为AI大模型工程师吗?AI大模型是什么?

AI大模型的价值不仅体现于其庞大的参数规模与强大的学习能力,更在于其对于解决现实世界复杂问题的巨大潜力。依托大规模数据的深度挖掘与学习,这些模型能够自动揭示数据间的内在关联与特征,从而实现对文本、图像等数据的高效处理与深刻理解。作为Transformer架构的核心组件,自注意力机制赋予模型在输入序列的所有位置上进行注意力计算的能力,从而实现了对序列内部信息的全局性建模。随着数据量的激增与计算能力的提升,研究人员开始致力于构建更大规模、更复杂的神经网络模型以进一步提升模型的表征能力与泛化能力。

2025-02-25 20:42:47 1018 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除