自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(789)
  • 收藏
  • 关注

原创 微软GraphRAG框架源码解读(LLMs)

这几天微软开源了一个新的基于知识图谱构建的检索增强生成(RAG)系统:GraphRAG。该框架旨在利用大型语言模型(LLMs)从非结构化文本中提取结构化数据,构建具有标签的知识图谱,以支持数据集问题生成、摘要问答等多种应用场景。GraphRAG的一大特色是利用图机器学习算法针对数据集进行语义聚合和层次化分析,因而可以回答一些相对高层级的抽象或总结性问题,这一点恰好是常规RAG系统的短板。 说实话之前一直有在关注这个框架,所以这两天花了点时间研究了一下源码,结合之前的一些技术文档,本文主要是记录GraphRA

2024-07-22 10:22:33 501

原创 LLaMA-Factory:大语言模型微调框架(附文档)

LLaMA-Factory 是一个国内北航开源的低代码大模型训练框架,专为大型语言模型(LLMs)的微调而设计

2024-07-22 10:18:41 379

原创 2024初学者怎么入门LLM大语言模型(LLM)?

真的想入门大语言模型,只看这一个文章应该是可以入门的。但是修行下去,还是要靠自己的了!

2024-07-21 09:45:00 401

原创 LLM大模型的演进与发展(附入门文档)

在2023年,大语言模型(LLM)无疑是AI领域中最热门的话题。在我的专栏中,本文主要是对LLM的想法进行一次全面的梳理和整合。

2024-07-20 07:45:00 441

原创 ai产品经理转大模型:这本<AI赋能:AI重新定义产品经理>值得一读

今天给大家推荐一本AI产品必读的书,,随着AI在越来越多的行业被应用,AI赋能的价值逐步体现出来,大模型跟产品经理可以说是绝配,而本书的含金量对产品经理来说的不用多做介绍,在这里给大家强烈推荐一波,不多bb直接开始介绍!

2024-07-19 15:13:48 963

原创 语言≠思维,大模型学不了推理:一篇Nature让AI社区炸锅了

大语言模型(LLM)为什么空间智能不足,GPT-4 为什么用语言以外的数据训练,就能变得更聪明?现在这些问题有 「标准答案」了。

2024-07-19 15:13:13 249

原创 AI时代Agent智能体简介及场景分析

大型语言模型 (LLM) 已经席卷了 AI 世界。如果这些强大的语言处理器不仅会说话,还会思考和推理呢?欢迎来到LLM Agents(又叫智能体),这是一波新的人工智能助手,准备改变我们与计算机的交互方式。

2024-07-18 13:38:46 934

原创 MoneyPrinterPlus全面支持本地Ollama大模型

MoneyPrinterPlus现在支持批量混剪,一键AI生成视频,一键批量发布短视频这些功能了。

2024-07-18 11:43:41 655

原创 国内大模型API调用实战

国内大模型API调用实战

2024-07-18 11:36:15 372

原创 AI类人工智能产品经理的丛林法则【LLM大模型】

对于AI这个领域也不例外,产品经理这样的岗位也渐渐成为竞相争取的“肥差”,刚好我也在大厂做了一段时间的人工智能人工智能规划与决策知识库")品类产品的工作,结合我的经历谈一谈这方面的感受。

2024-07-17 10:36:51 961

原创 LLM大模型行业,已经开始“抢人”了!

随着大模型在国内这片土壤生根发芽,企业对相关人才的争夺也愈发激烈,在招聘软件上我们不难看到,不少企业甚至开出高年薪以抢夺算法、深度学习等高级技术人才。不过,在人才的争夺之外,还有那些问题是大模型落地过程中急需解决的?一起来看看作者的解读。

2024-07-17 10:35:47 1386

原创 AIGC产品经理:传统产品经理转型的时代机遇与挑战

今年年初,随着GPT、Midjourney大模型的火爆,也带火了AIGC(人工智能生成内容)的潮流。随之而来的是越来越多的AIGC产品经理的招聘需求。AIGC产品经理是一个崭新的角色,同时也面临着一系列独特的挑战和机遇。

2024-07-17 10:34:42 978

原创 【Llama3:8b】手把手教你如何在本地部署 自己的 LLM大模型

我们正处于AI人工智能时代,各行各业的公司和产品都在向AI靠拢。打造垂直领域的AI模型将成为每个公司未来的发展趋势。

2024-07-17 10:34:08 602

原创 【LLM大模型】window 安装大模型 chatglm-6b

有大模型以来一直想尝试通过本地安装大模型,主要的原因是GPT众所众知的原因没有办法通过 API 访问,而国内的所谓的开发平台一方面要么不兼容 openai 的 api 要么就是价格不够友好,要么两者兼有,另外的话,开发平台也有所谓的隐私问题。

2024-07-16 15:30:11 378

原创 【LLM】LangChain Agent最全教程学习

LangChain Agent的终极指南,本教程是您使用 Python 创建第一个agent的重要指南,请立即开始你的 LLM 开发之旅。

2024-07-16 15:29:17 532

原创 【LLM】Windows PC上从零开始部署ChatGML-6B-int4量化模型

大模型的部署一般需要GPU资源,而个人电脑一般都是Windows操作系统,且没有独立的GPU。那么大模型如何部署在只有CPU的Windows机器上呢?需要额外安装一个叫TDM-GCC的软件。

2024-07-16 15:26:36 861

原创 【LLM大模型】AGI 远不止 ChatGPT!一文入门 AGI 通识及应用开发

2022 年 12 月 ChatGPT 突然爆火,原因是其表现出来的智能化已经远远突破了我们的常规认知。虽然其呈现在使用者面前仅仅只是一个简单的对话问答形式,但是它的内容化水平非常强大,甚至在某些方面已经超过人类了,这是人工智能板块的重大突破。

2024-07-15 10:01:22 979

原创 【LLM大模型】直观易用的大模型开发框架 LangChain,你会了没?

目前 LangChain 框架在集团大模型接入手册中的学习案例有限,为了让大家可以快速系统地了解 LangChain 大模型框架并开发

2024-07-15 10:00:49 957

原创 【LLM大模型】一书通关LLM大模型!成功通关大模型,看这1本足够了...

哈喽大家好!最近有粉丝朋友喊我推荐一些大模型的学习书籍,我给大家推荐这么一本书,基于gbt3、gbt4等transform架构的自然语言处理。这是一本对transform工作原理感兴趣的人必读的书籍。亚马逊的评分是9.7分,内行人在睡不着的时候恨不得把全书都背诵完毕。

2024-07-15 09:59:37 227

原创 大模型+RAG,全面介绍!【LLM大模型】

大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性 ,如生成不正确信息或“幻觉”。 缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。

2024-07-13 10:16:17 759

原创 一张图读懂大模型应用是如何工作的,一图胜千言【LLM大模型】

在科技飞速发展的今天,人工智能(AI)早已不再是遥不可及的科幻概念,而是融入了我们生活的方方面面。其中,大模型作为AI领域的重要分支,以其卓越的表现力和广泛的应用前景,吸引了无数人的目光。但你是否也曾经好奇,这些看似无所不能的大模型,究竟是如何工作的呢?

2024-07-13 10:10:54 767

原创 【ai产品经理】怎样才能成为AI时代的精英产品经理?

AI产品经理的主要职责是根据公司战略,负责人工智能产品的研发和运营。他们需要深入了解用户需求和市场趋势,制定具体的产品规划和设计方案,并与开发团队紧密合作,确保产品的顺利研发和上线。此外,他们还需要参与产品的测试、运营和推广,并对产品的全生命周期进行管理。

2024-07-13 09:52:28 561

原创 本地私有化部署开源大模型完整教程:LangChain + Streamlit+ Llama 【LLM大模型】

通过LangChain和Streamlit我们可以方便的整合任何的LLM模型,并且通过GGML我们可以将大模型运行在消费级的硬件中,这对我们个人研究来说使非常有帮助的。

2024-07-12 11:10:49 841

原创 LangChain和Hub的前世今生发展历程【LLM大模型】

作为LLM(大模型)开发框架的宠儿,LangChain在短短几年内迅速崛起,成为开发者们不可或缺的工具。本文将带你探讨LangChain和LangChainHub的发展历程。

2024-07-12 11:10:07 714

原创 ai大模型:详解AI产品经理工作全流程

自从ChatGPT之类的大模型爆火之后,AI产品经理也开始水涨船高受到更多人的青睐,不少同学都想转去做AI产品。那你知道其工作流程是怎样的吗?这篇文章,我们就来分享一下。

2024-07-12 10:56:48 942

原创 【LLM大模型】大模型应用框架-LangChain(二)

LangChain由 Harrison Chase 创建于2022年10月,它是围绕LLMs(大语言模型)建立的一个框架,LLMs使用机器学习算法和海量数据来分析和理解自然语言,GPT3.5、GPT4是LLMs最先进的代表,国内百度的文心一言、阿里的通义千问也属于LLMs。LangChain自身并不开发LLMs,它的核心理念是为各种LLMs实现通用的接口,把LLMs相关的组件“链接”在一起,简化LLMs应用的开发难度,方便开发者快速地开发复杂的LLMs应用。

2024-07-10 09:50:18 622

原创 【LLM大模型】大模型应用框架-LangChain(一)

LangChain由 Harrison Chase 创建于2022年10月,它是围绕LLMs(大语言模型)建立的一个框架,LLMs使用机器学习算法和海量数据来分析和理解自然语言,GPT3.5、GPT4是LLMs最先进的代表,国内百度的文心一言、阿里的通义千问也属于LLMs。

2024-07-10 09:49:17 610

原创 LLM大模型入门(八)—— Llama2论文简读

1)LLaMA2预训练模型在自然语言理解、逻辑推理、编码等能力上要显著优于当前的开源模型,基本持平GPT3.5(编码能力除外),但较GPT4,PaLM-2还有不小的差距。2)LLaMA2-chat微调模型在有用性和安全性上要显著优于当前的开源模型,较ChatGPT也有微弱的优势。且在多轮对话的能力上保持着类似的竞争力。总得来说在当前的开源社区中,LLaMA2和LLaMA2-chat可以作为首要选择。

2024-07-10 08:30:00 876

原创 LLM大模型入门(七)—— RLHF中的PPO算法理解

本文主要是结合PPO在大模型中RLHF微调中的应用来理解PPO算法。

2024-07-09 11:15:00 558

原创 LLM大模型入门(六)—— RLHF微调大模型

奖励模型是输入一个文本序列,模型给出符合人类偏好的奖励数值,这个奖励数值对于后面的强化学习训练非常重要。构建奖励模型的训练数据一般是同一个数据用不同的语言模型生成结果,然后人工打分。如果是训练自己领域的RLHF模型,也可以尝试用chatgpt打分,效果也不错。

2024-07-09 10:30:00 649

原创 【LLM大模型】一书即可通关LLM大模型!成功通关大模型,看这本足够了...

这是一本对transform工作原理感兴趣的人必读的书籍。亚马逊的评分是9.7分,内行人在睡不着的时候恨不得把全书都背诵完毕。

2024-07-09 10:20:47 1204

原创 LLM大模型入门(五)—— 基于peft微调ChatGLM模型

ChatGLM 是基于架构,针对中文问答和对话进行了优化。经过中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术,ChatGLM因为是中文大模型,在中文任务的表现要优于LLaMa,我在一些实体抽取的任务中微调ChatGLM-6B,都取得了很不错的效果。在微调ChatGLM之前,先简单地了解下它的基础模型GLM,GLM也是基于transformer架构的,在训练任务上构造了自回归的空格填充任务,具体的训练流程如下图所示:a) 随机抽取句子中的一些片段。

2024-07-09 09:30:00 523

原创 LLM大模型入门(四)—— 基于peft 微调 LLaMa模型

llama-7b模型大小大约27G,本文在单张/两张 16G V100上基于hugging face的peft库实现了llama-7b的微调。使用的大模型:https://huggingface.co/decapoda-research/llama-7b-hf,已经是float16的模型。微调数据集:https://github.com/LC1332/Chinese-alpaca-lora/blob/main/data/trans_chinese_alpaca_data.json1)lora微调。

2024-07-09 08:15:00 756

原创 LLM大模型入门(三)—— 大模型的训练方法

随着现在的模型越来越大,训练数据越来越多时,单卡训练要么太慢,要么无法存下整个模型,导致无法训练。当你拥有多张GPU(单机多卡,多机多卡)时,你就可以通过一些并行训练的方式来解决你的问题。

2024-07-08 11:08:59 649

原创 LLM大模型入门(二)—— PEFT

(Parameter-Efficient Fine-Tuning)是hugging face开源的一个参数高效微调大模型的工具,里面集成了4中微调大模型的方法,可以通过微调少量参数就达到接近微调全量参数的效果,使得在GPU资源不足的情况下也可以微调大模型。LORA是PEFT中最常用的方法,LORA认为过参数的模型权重其实存在低内在维度,那么模型适应过程中的权重变化也存在低内在维度,因此模型在微调的过程中实际上可以通过微调低秩矩阵来微调模型。

2024-07-08 11:02:44 942

原创 LLM大模型入门(一)—— LLaMa/Alpaca/Vicuna

LLaMa模型是Meta开源的大模型,模型参数从7B到65B不等,LLaMa-7B在大多数基准测试上超过了GPT3-173B,而LLaMa-65B和Chinchilla-70B、PaLM-540B相比也极具竞争力。

2024-07-08 10:29:06 676

原创 【LLM大模型】大模型之RAG,LLM性能的提升,RAG与Fine-Tune我们该如何选择?

微调(Fine-Tune),简单来说就是在较小的特定数据集上对其进行进一步训练的过程。

2024-07-05 10:26:04 745

原创 【LLM大模型】Embedding模型概念、源码分析和使用示例

Embedding模型是RAG(Retrieval-Augmented Generation)技术的核心。也是大模型应用落地必不可少的技术。

2024-07-05 10:24:02 1081

原创 LLM大模型快速入门+学习路线推荐

大模型,是指在人工智能领域,特别实在自然语言处理和机器学习中,拥有大量参数的深度学习模型。这些模型通过在大规模数据集上进行训练,能够学到丰富的数据表示和模式,从而在各种任务上表现出色,如文本生成,语言理解,图像识别等。大模型是具有大量参数和复杂结构的模型,这些模型通常具数十亿甚至数万亿个参数,能够处理大规模的数据和复杂的任务。通常使用深度学习技术,如深度神经网络,可以从数据中学习并提取特征来执行各种任务。

2024-07-04 10:49:54 660

原创 【LLM大模型】中国人工智能大模型技术白皮书,从0入门大模型,附文档+LLM实战教程

中国人工智能学会发布了《中国人工智能大模型技术白皮书》,系统梳理了大模型技术演进,深入探讨关键技术要素,并剖析当前挑战及未来展望。 我为大家做了简要总结,并附上文档分享给大家。

2024-07-04 10:41:46 705

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除