自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(895)
  • 收藏
  • 关注

原创 LLM大模型入门这书必看:大语言模型 基础与前沿(附PDF书)

哈喽大家好!很久都没有更新大模型这块的书了,今天给大家说一下这本:《大语言模型:基础与前沿》,本书深入阐述了大语言模型的基本概念和算法、研究前沿以及应用,涵盖大语言模型的广泛主题,从基础到前沿,从方法到应用,涉及从方法论到应用场景方方面面的内容。

2024-07-22 10:33:20 210

原创 【LLM大模型】从开发到部署,搭建离线私有大模型知识库

最近一段时间搭建了一套完整的私有大模型知识库,目前完整的服务已经完成测试部署上线。基本之前的实践过程,从工程角度整理技术方案以及中间碰到的一些问题,方便后续对这个方向有需求的研发同学们。

2024-07-22 10:29:16 296

原创 LLM大模型:聊聊多模态大模型处理的思考

最终来看,第一个方案肯定是最合适的;但如果对于选型的大模型不支持多模态的情况下,考虑开源实现或是第二张方案,但要综合调研其带来的影响,并不是简单的转文本就行。第三种,目前我没有找到合适的Embedding模型支持多模态,后续继续探讨挖掘下。

2024-07-21 07:45:00 501

原创 LLM大模型:学好 prompt 让大模型变身撩富婆专家,带你走上人生巅峰

使用大模型的最重要的一步就是编写好的提示词 `prompt` ,但是 prompt 既容易被`低估`也容易被`高估`。被低估是因为设计良好的提示词可以显著提升效果。

2024-07-20 08:45:00 1075

原创 Ollama:一个在本地部署、运行LLM大型语言模型的工具

Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的工具。

2024-07-19 15:25:58 522

原创 Git爆火大模型教程:llm-action:让天下没有难学的大模型

今天给大家推荐这个大模型入门学习项目,实在是太香了太香了,目前该项目已经超过1100星,具体的文章分类如下所示。

2024-07-19 15:24:05 921

原创 LLM大模型:十分钟学会微调大语言模型

本文就来介绍一种大语言模型微调的方法,使用的工具是我最近在用的 Text Generation WebUI,它提供了一个训练LoRA的功能。

2024-07-18 16:37:35 1483

原创 LLM大模型:关于Llama 3 AI大模型的几点总结

这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。Meta在后续的几个月中,将发布多个具有新功能的模型,包括多模态、以多种语言交谈的能力、更长的上下文窗口。

2024-07-18 16:36:34 537

原创 为什么大模型训练需要GPU,训练大模型的GPU介绍

今天偶然看到一篇关于介绍GPU的推文,我们在复现代码以及模型训练过程中,GPU的使用是必不可少的,那么大模型训练需要的是GPU,而不是CPU呢。现在市面上又有哪些适合训练的GPU型号呢,价格如何,本文将会将上述疑问的回答一一分享给大家。

2024-07-18 16:35:50 838

原创 LLM大模型应用开发之准备篇(OpenAI的plugins、GPTs与RAG、Agent)

接下来我们就以OpenAI的产品来介绍下这些概念,以及在GPT-4 turbo中出现的GPTs等的解读和应用。

2024-07-16 15:52:28 418

原创 LLM大模型提示工程(Prompt),让LLM自己优化提示词

随着大家对于prompt提问的研究以及对于高质量回答的追求,现在有一个比较热的词叫做prompt creator。Prompt Creator 实际上是使得 ChatGPT 更好的引导你去完善自己的提问,同时也完善自己的回答,更好地指导自己回答出更加令使用者满意的答案,是双向的过程。不会提问没关系,会互动即可,可以通过在互动中完善自己的提问,也能得到 ChatGPT 更具体的回答。

2024-07-16 15:51:07 899

原创 【LLM】关于Llama 3 AI大模型的几点总结

【LLM】关于Llama 3 AI大模型的几点总结

2024-07-16 15:46:54 333

原创 【RAG】综述:一文了解RAG评估方法、工具与指标

前面我们学习了RAG的基本框架并进行了实践,我们也知道使用它的目的是为了改善大模型在一些方面的不足:如训练数据不全、无垂直领域数据、容易出现幻觉等。

2024-07-15 10:07:52 893

原创 【AI大模型】来看看,用上AI的新人产品经理,有多炸裂

现在,不止具体业务相关工作,许多事我们都可以让AI来做,不仅省时间,AI工作产出的质量也非常高。有了AI的加持,职场新人也能更快速地打爆壁垒。今天不讨论“AI 取不取代你”、“会用 AI 的取不取代你”的问题,就给大家看看,用上 AI 以后有多强。以产品经理为例,这个岗位的核心竞争力是什么?这两项可以为你带来护城河的能力,一个新人,只要他知道应该做什么,就可以在 AI 的帮助下,快速把这些壁垒打爆。

2024-07-15 10:06:44 783

原创 2024最新ai大模型入门指南()

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。

2024-07-15 10:06:18 854

原创 LLM大模型路线:从零到1实现大模型微调部署【LLM大模型】

👀2024年,大家有没有发现大语言模型越发火爆了! 😍各种大厂都在竞相发布自己的大模型,清华也出了属于他们自己的大模型 智普!(PS:用过,非常好用!)

2024-07-13 10:19:41 288

原创 【LLM大模型】本地部署 Langchain-Chatchat & ChatGLM

【LLM大模型】本地部署 Langchain-Chatchat & ChatGLM

2024-07-13 10:18:44 751

原创 【LLM大模型】如何使用 LangChain 构建基于LLMs的应用——入门指南

大型语言模型(LLMs)是非常强大的通用推理工具,在各种情况下都非常有用。

2024-07-13 10:18:00 942

原创 什么是大模型?一文读懂LLM大模型的基本概念(LLM入门)

大模型是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型在各种领域都有广泛的应用,包括自然语言处理、计算机视觉、语音识别和推荐系统等。大模型通过训练海量数据来学习复杂的模式和特征,具有更强大的。

2024-07-12 11:21:03 698

原创 LLM大模型入门:一文带你速通RAG、知识库和LLM!

检索增强生成(Retrieval Augmented Generation,RAG)是一种强大的工具,它通过将企业外部知识整合到生成过程中,增强了大语言模型(LLM)的性能。

2024-07-12 11:18:04 641

原创 AI产品经理需要哪些必备技能?如何成为AI产品经理?(文末福利)

AI产品经理本身也只是产品经理的一种,并没有什么特殊性。只是这些年AI相对比较火,理解AI技术需要一定的技术门槛,和传统的交互产品经理、系统产品经理等对比起来入门门槛更高。

2024-07-12 11:13:43 750

原创 【LLM大模型】上海交通大学《动手学大模型》编程实战课,课件+教程

来了来了!上海交通大学的大模型超超超级牛掰的大模型编程实战课公开了,课件+教程,本套实战教程旨在提供大模型相关的入门编程参考。

2024-07-10 10:09:23 264

原创 【LLM大模型】大模型应用架构

这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。

2024-07-10 10:07:33 885

原创 商业上怎么合理运用提示工程,RAG和模型微调

提示工程、RAG 还有微调在工程当中应该怎么选择,今天来给大家讲清楚。那首先呢,我们要弄清楚大模型是怎么训练出来的。训练大模型,首先需要海量的数据,然后通过训练的方法来构造一个大模型。然后这个大模型,其实它具备了非常多的能力,因为我们在训练的过程里面,其实使用到的数据是非常多样化的,包括金融数据、医疗数据、智能制造的数据、教育数据,还有好多好多其他行业的数据。然后从另外一个角度,我们可以把这个大模型比作是智能化的大脑,比如说一个人的大脑。

2024-07-10 09:56:50 932

原创 【LLM大模型】微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉

大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。

2024-07-09 10:29:22 353

原创 【LLM大模型】为什么你的RAG不起作用?失败的主要原因和解决方案

我们正在见证AI的新时代的到来。这个时代的新颖之处不在于NLP和语言模型的出现,而是现成技术降低了企业利用自然语言技术针对他们特定用例的门槛。

2024-07-09 10:27:48 734

原创 2024年6月上半月30篇大语言模型的论文推荐

大语言模型(LLMs)在近年来取得了快速发展。本文总结了2024年6月上半月发布的一些最重要的LLM论文,可以让你及时了解最新进展。

2024-07-09 10:25:57 332

原创 【LLM大模型】怎么让英文大语言模型支持中文?(三)进行指令微调

在之前讲过的继续预训练之后,我们应该对数据处理到训练、预测的整个流程有所了解,其实,基本上过程是差不多的。我们在选择好一个大语言模型之后。比如chatglm、llama、bloom等,要想使用它,得了解三个方面:输入数据的格式、tokenization、模型的使用方式。接下来我们一一来看。本文主训练代码来自github:Chinese-LLaMA-Alpaca。

2024-07-08 11:42:19 750

原创 怎么让英文大语言模型支持中文?(二)继续预训练

前面我们已经讲过怎么构建中文领域的tokenization,接下来我们将介绍继续预训练。

2024-07-08 11:40:09 543

原创 怎么让英文大预言模型支持中文?(一)构建自己的tokenization

目前,大语言模型呈爆发式的增长,其中,基于llama家族的模型占据了半壁江山。而原始的llama模型对中文的支持不太友好,接下来本文将讲解如何去扩充vocab里面的词以对中文进行token化。1、使用sentencepiece训练一个中文的词表。2、使用transformers加载sentencepiece模型。3、怎么合并中英文的词表,并使用transformers使用合并后的词表。4、在模型中怎么使用新词表。

2024-07-08 11:37:49 986

原创 【LLM大模型】大模型提示工程(Prompt),让LLM自己优化提示词

随着大家对于prompt提问的研究以及对于高质量回答的追求,现在有一个比较热的词叫做prompt creator。

2024-07-05 10:34:35 729

原创 【LLM大模型】你还在为写好Prompt而头疼吗,带你走进DSPy-Program LLMs之初体验

随着大模型的使用和应用越来越频繁,也越来越广泛,大家有没有陷入到无限制的研究、调优自己的prompt。

2024-07-05 10:29:33 723

原创 LLM大模型应用研发基础环境配置(Miniconda、Python、Jupyter Lab、Ollama等)

LLM大模型应用研发基础环境配置(Miniconda、Python、Jupyter Lab、Ollama等)

2024-07-04 14:47:55 968

原创 Google 发布了最新的开源大模型 Gemma 2,本地快速部署和体验

Gemma 2 是 Google 最新发布的开源大语言模型。它有两种规模:90 亿(9B)参数和 270 亿(27B)参数,分别具有基础(预训练)和指令调优版本

2024-07-04 14:35:07 1001 2

原创 Qwen2大模型微调入门实战(完整代码)

该教程介绍了如何使用Qwen2,一个由阿里云通义实验室研发的开源大语言模型,进行指令微调以实现文本分类。

2024-07-03 10:15:18 844

原创 LLM大模型Prompt工程的重要性及构建方法

随着大模型技术的飞速发展,Prompt 指令工程逐渐被人们重视。在使用大模型时,一个好的 Prompt 可以有效引导模型输出期望的答案,而一个不恰当的 Prompt 则可能导致模型产生误导甚至有害的回应。

2024-07-03 10:13:27 616

原创 综述 | 一文看懂生成式时序表示与时序大模型

时间序列数据在各个领域都普遍存在,使得时间序列分析变得至关重要。传统的时间序列模型是任务特定的,具有单一的功能和有限的泛化能力。最近,大型语言基础模型揭示了它们在跨任务迁移性、零次/少次学习和决策可解释性方面的出色能力。这一成功引发了人们探索基础模型以同时解决多个时间序列挑战的兴趣。目前主要有两条研究路线,即从头开始为时间序列预训练基础模型和将大型语言基础模型适应于时间序列。它们都促进了高度可泛化、多功能且易于理解的时间序列分析统一模型的发展。本综述提供了一个3E分析框架,用于全面审查相关研究。

2024-07-02 11:40:14 923

原创 适合每个大模型初学者人手一本的(LLM)大语言模型综述,爆火全网!(附PDF)

今天给大家推荐一本大模型(LLM)这块的一本外文书,经过整理已经出中文版了,就是这本《大型语言模型综述》!本书在git上有9.2k star,还是很不错的一本大模型方面的书。

2024-07-02 11:35:12 1318

原创 盘点!LLM大模型及发展趋势!

大型语言模型(LLMs)无疑是此次人工智能革命的核心,其构建于Transformer架构的坚实基础之上,并依据缩放定律(Scaling Law)不断进化。

2024-06-30 16:29:26 675

原创 真的,我求求你别学了:从 Prompt 到 RAG,从 RAG 到 DSPy

Prompt 工程已经不中用了,没有人愿意废那么大的劲来学习如何结构化提问,大家想要的就是傻瓜式提问,但是大模型的回答还是精准的、合意的

2024-06-29 14:49:32 704

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除