- 博客(12)
- 问答 (2)
- 收藏
- 关注
原创 书生·浦语大模型系列学习:Day 6 作业
使用 OpenCompass 评测 InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能
2024-01-25 15:49:19 394 1
原创 书生·浦语大模型系列学习:Day 5 作业
使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事。直接启动本地的 Huggingface 模型。
2024-01-25 14:40:28 427 1
原创 书生·浦语大模型系列学习:Day 4
LoRA模型是旁路分支的参数文件,通常叫Adapter。QLoRA:使用4bit量化,CPU调度进行了整合。XTuner 大模型单卡低成本微调实战。LoRA:只加载LoRA参数,减少显存。微调模式:增量预训练和指令跟随。一、Finetune简介。全参数微调加载所有参数。二、XTuner简介。
2024-01-23 21:37:46 478 1
原创 书生·浦语大模型系列学习:Day 3 作业
InternLM 接入 LangChain。复现课程知识库助手搭建过程。部署 Web Demo。下载NLTK相关资源。
2024-01-20 21:41:20 404
原创 书生·浦语大模型系列学习:Day 3
Finetune:传统自然语言处理算法微调,小训练集轻量级微调。将个性化配置引入到检索问答链中,即可构建个性化RAG应用。通用大模型具有强大的语言理解、指令跟随和语言生成能力。两种核心大模型开发方式,RAG和Finetune。缺点:受基座模型影响大,占用大量模型上下文。RAG:检索增强生成,通过匹配知识库实现。优点:可个性化微调,知识覆盖面广。LLM的局限性限制了其落地应用。缺点:成本高,无法解决实时更新。优点:成本低,可实时更新。
2024-01-20 21:13:50 449
原创 书生·浦语大模型系列学习:Day 2
大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素。这些模型在各种任务中展现出惊人的性能,比如自然语言处理、计算机视觉、语音识别等。这种模型通常采用深度神经网络结构,如BERTGPT( Generative Pre-trained Transformer )等。大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。
2024-01-13 17:04:06 438
空空如也
Java Socket 在传输String时,在字符串前出现了空格
2021-09-06
Java Jpanel以及paintComponent的显示问题
2021-08-12
TA创建的收藏夹 TA关注的收藏夹
TA关注的人