大模型学习路线之入门项目推荐

目录

前言

一、多模态大模型——以VisualGLM实现图文转换(入门级)

1. 安装相关依赖包

2. 导入依赖库、导入model & processor

3. 导入图片链接

4. 图生文

5. 图片内容推理

二、LLM——基于文心大模型的金融知识库问答(进阶级)

0. 环境配置

1. 载入本地非结构化文档

2. 文档split为若干chunk文本块

3. 文本Embedding–>Vectors

4. 存入向量数据库(以FAISS为例,常见向量数据库还有Milvus)

5. Query查询(用户提问)

6. Prompt合成

7. 调用LLM模型,实现答案生成任务(以文心大模型为例)

8. RAG流程封装(将提示词Prompt输入给文心大模型,获得输出结果)

三、推荐项目(综合级)


前言

​ 依托 aistudio 平台内容,章节一呈现了一个入门级demo(小白友好),以VisualGLM(多模型大模型)为例实现了图生文;章节二呈现了一个进阶版demo(适合有一定LLM基础的人群食用),以文心大模型(LLM+RAG)为例实现了金融知识库问答(参考aistudio上精品项目);章节三推荐了数个综合级、系统化的项目(适合从事/预从事 LLM/AIGC 岗的人群食用),把每个项目深挖吃透后,基本可以从事相关岗。


一、多模态大模型——以VisualGLM实现图文转换(入门级)

1. 安装相关依赖包

用git命令从github上下载visualglm-6b模型到本地,git PaddleMIX安装包、pip其它相关依赖包。

!git clone http://git.aistudio.baidu.com/aistudio/visualglm-6b.git



!git clone https://github.com/PaddlePaddle/PaddleMIX



!pip install soundfile librosa

2. 导入依赖库、导入model & processor

import os



os.environ["CUDA_VISIBLE_DEVICES"] = "0"



os.environ["FLAGS_use_cuda_managed_memory"] = "true"



 



import requests



from PIL import Image



from PaddleMIX.paddlemix import VisualGLMForConditionalGeneration, VisualGLMProcessor



import warnings



warnings.filterwarnings('ignore')



 



 



# 设置visualglm-6b预训练模型的本地路径(PS:本地导入比直接云端下载速度会快很多)



pretrained_name_or_path = "aistudio/visualglm-6b"



model = VisualGLMForConditionalGeneration.from_pretrained(pretrained_name_or_path, from_aistudio=True,dtype="float32")



model.eval()



processor = VisualGLMProcessor.from_pretrained(pretrained_name_or_path,from_aistudio=True)

3. 导入图片链接

# 图片链接



# url = "https://paddlenlp.bj.bcebos.com/data/images/mugs.png"



url = 'https://i02piccdn.sogoucdn.com/5dd40dedd7107cc5'



image = Image.open(requests.get(url, stream=True).raw)



 



# 配置模型参数



generate_kwargs = {



        "max_length": 1024,



        "min_length": 10,



        "num_beams": 1,



        "top_p": 1.0,



        "top_k": 1,



        "repetition_penalty": 1.2,



        "temperature": 0.8,



        "decode_strategy": "sampling",



        "eos_token_id": processor.tokenizer.eos_token_id,



    }

img

图1

4. 图生文

# Epoch 1



query = "写诗描述一下这个场景"



history = []



inputs = processor(image, query)



 



generate_ids, _ = model.generate(**inputs, **generate_kwargs)



responses = processor.get_responses(generate_ids)



history.append([query, responses[0]])



print(responses)

img

图2

5. 图片内容推理

# Epoch 2



query = "这部电影的导演是谁?"



inputs = processor(image, query, history=history)



generate_ids, _ = model.generate(**inputs, **generate_kwargs)



responses = processor.get_responses(generate_ids)



history.append([query, responses[0]])



print(responses)

img

图3


二、LLM——基于文心大模型的金融知识库问答(进阶级)

img

图4. 整体流程

参考链接:https://aistudio.baidu.com/projectdetail/6682781?channelType=0&channel=0

0. 环境配置

# (1)下载PDF文档



!wget https://zihao-code.obs.cn-east-3.myhuaweicloud.com/20230709-langchain/carbon.pdf -i https://pypi.tuna.tsinghua.edu.cn/simple



!wget https://zihao-code.obs.cn-east-3.myhuaweicloud.com/20230709-langchain/car.pdf -i https://pypi.tuna.tsinghua.edu.cn/simple



 



# (2)安装依赖环境



!pip install transformers langchain openai unstructured tiktoken faiss-cpu sentence_transformers pypdf -i https://pypi.tuna.tsinghua.edu.cn/simple

1. 载入本地非结构化文档

from langchain.document_loaders import UnstructuredFileLoader



from langchain.document_loaders import PyPDFLoader



 



# 加载所有非结构化文件,提取文本



loaders = [



    PyPDFLoader('car.pdf'),



    PyPDFLoader('carbon.pdf')



]



# loaders = [



#     UnstructuredFileLoader('思修2018.txt'),



#     UnstructuredFileLoader('近代史2018.txt'),



#     PyPDFLoader('马原2023.pdf'),



#     PyPDFLoader('毛概2023.pdf')



# ]



 



# 把每个非结构化文件存入docs列表,并保存了对应出处



docs = []



for loader in loaders:



    docs.extend(loader.load())

2. 文档split为若干chunk文本块

from langchain.text_splitter import CharacterTextSplitter



 



text_splitter = CharacterTextSplitter(chunk_size=300, chunk_overlap=30, separator='\n')



splits = text_splitter.split_documents(docs)



print(len(splits))

3. 文本Embedding–>Vectors

from langchain.embedding import HuggingFaceEmbeddings



 



embedding_model = 'moka-ai/m3e-base'



embedding = HuggingFaceEmbeddings(model_name=embedding_model)

4. 存入向量数据库(以FAISS为例,常见向量数据库还有Milvus)

from langchain.vectorstores import FAISS



 



# 提取每个chunk文本块的Embedding向量,构建知识库文本-向量数据库



vector_store = FAISS.from_documents(splits, embeddings)

5. Query查询(用户提问)

query = '政府发布了哪些双碳政策文件'



 



# 针对query进行相似性搜索,从知识向量库(FAISS)检索出最相似的TOP K个Chunk



K = 5



docs_and_scores = vector_store.similarity_search_with_score(question, k=K)



print(docs_and_scores)



 



 



# 打印TOP K Chunk的来源、字数、和query相似度打分



for i in range(docs_and_scores):



    source = docs_and_scores[i][0].metadata['source']



    content = docs_and_scores[i][0].page_content



    similarity = docs_and_scores[i][1]



    print(f'来源:{source},      字数:{len(content)},      相似度打分:{similarity}')



    print(content[:30]+'......')



    print('————————————————————————————————————')

img

图5

6. Prompt合成

# 6.1. 生成背景内容(Top K个相似内容拼接)



context = ''



for i in docs_and_scores:



    context +=doc[0].page_content



    context +='\n'



print(context)



 



# 6.2. 生成提示词



prompt = f'你是一个学习助手,请根据下面的已知信息回答问题,你只需要回答和已知信息相关的问题,如果问题和已知信息不相关,你可以直接回答"不知道" 问题:{query} 已知信息:{context}'

img

图6

7. 调用LLM模型,实现答案生成任务(以文心大模型为例)

import requests



 



class BaiduErnie:



    host: str = "https://aip.baidubce.com"



    client_id: str = ""



    client_secret: str = ""



    access_token: str = ""



 



    def __init__(self, client_id: str, client_secret: str):



        self.client_id = client_id



        self.client_secret = client_secret



        self.get_access_token()



 



    def get_access_token(self) -> str:



        url = f"{self.host}/oauth/2.0/token?grant_type=client_credentials&client_id={self.client_id}&client_secret={self.client_secret}"



        response = requests.get(url)



        if response.status_code == 200:



            self.access_token = response.json()["access_token"]



            return self.access_token



        else:



            raise Exception("获取access_token失败")



 



    def chat(self, messages: list, user_id: str) -> tuple:



        if not self.access_token:



            self.get_access_token()



        url = f"{self.host}/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/eb-instant?access_token={self.access_token}"



        data = {"messages": messages, "user_id": user_id}



        response = requests.post(url, json=data)



        if response.status_code == 200:



            resp = response.json()



            return resp["result"], resp



        else:



            raise Exception("请求失败")



 



 



# 填入文心大模型后台的API信息



# 获取地址: https://console.bce.baidu.com/ai/?_=1711963019980#/ai/intelligentwriting/overview/index



client_id = ""       # 自己的client_id



client_secret = ""   # 自己的client_secret



user_id = ""         # 自己的user_id



baidu_ernie = BaiduErnie(client_id, client_secret)



 



def chat(prompt):



    messages = []



    messages.append({"role": "user", "content": prompt})



    result, response = baidu_ernie.chat(messages, user_id)



    return result



result = chat('你是哪家公司开发的什么大语言模型?')



print(result)



# result:我是百度公司开发的知识增强语言模型,能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。

8. RAG流程封装(将提示词Prompt输入给文心大模型,获得输出结

果)

def predict(query):



    docs_and_scores = vector_store.similarity_search_with_score(query, k=K)



 



    context = ''



    for doc in docs_and_scores:



        context +=doc[0].page_content



        context +='\n'



 



        prompt = '你是一个学习助手,请根据下面的已知信息回答问题,你只需要回答和已知信息相关的问题,如果问题和已知信息不相关,你可以直接回答"不知道" 问题:{} 已知信息:{}'.format(query, context)



        # 输入文心大模型



        result = chat(prompt)



        print(result)



 



predict('政府发布了哪些双碳政策文件')



# 根据政府发布的信息,中国提出了30·60“双碳”目标,并发布了《关于完整准确全面贯彻新发展理念做好碳达峰碳中和工作的意见》和《2030年前碳达峰行动方案》等纲领性文件,以保障目标的实现。中国作为全球第二大经济体,始终高度关注气候变化对国家和社会的影响。

三、推荐项目(综合级)

(1)多模态大模型(慎入,因为封闭式学习时长需要2周左右):https://aistudio.baidu.com/education/group/info/29948

(3)医学人工智能与大模型:https://aistudio.baidu.com/education/group/info/30524

(4)数字人定制(定制声音、造型,生成数字人,用于语音识别 & 聊天 & 翻译):https://aistudio.baidu.com/projectdetail/6998882?channelType=0&channel=0

最后如果您也对AI大模型感兴趣想学习却苦于没有方向👀
小编给自己收藏整理好的学习资料分享出来给大家💖
👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码关注免费领取【保证100%免费】🆓

在这里插入图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉如何学习AI大模型?👈

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
在这里插入图片描述

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
在这里插入图片描述

四、AI大模型商业化落地方案

在这里插入图片描述

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值