- 博客(18)
- 收藏
- 关注
原创 书生浦语第四期
可以直接将以下代码复制到/root/ft/config/internlm2_1_8b_qlora_alpaca_e3_copy.py 文件中(先 Ctrl + A 选中所有文件并删除后再将代码复制进去)。# Model# Data# parallellr = 2e-4# Saveevaluation_inputs = ['请你介绍一下你自己', '你是谁', '你是我的小助手吗']llm=dict(lora=dict(r=64,dict(begin=0,dict(dict(
2024-04-14 14:28:35 1338 1
原创 书生浦语第五期
LMDeploy 由MMDeploy和MMRazor团队联合开发,是涵盖了LLM任务的全套轻量化、部署和服务解决方案。核心功能包括高效推理、可靠量化、便捷服务和有状态推理。HuggingFace是一个高速发展的社区,包括Meta、Google、Microsoft、Amazon在内的超过5000家组织机构在为HuggingFace开源社区贡献代码、数据集和模型。可以认为是一个针对深度学习模型和数据集的在线托管社区,如果你有数据集或者模型想对外分享,网盘又不太方便,就不妨托管在HuggingFace。
2024-04-13 20:16:15 343 1
原创 书生浦语第三期
RAG概述:RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。
2024-04-07 18:04:27 773 1
原创 书生·浦语大模型全链路开源体系——第一期
对于一个模型的部署,我们会根据实际情况以及应用业务场景初步做一个评判,选择合适的基础模型,然后根据实验设备算力是否足够选择微调的方案,在训练完模型后对模型做一个评测,评测指标达到满意的效果后进行发布。OpenMMLab设计了一套很方便的开源体系,通过该体系可以很方便地完成大模型训练的全过程。首先是数据集,OpenMMLab开源了书生·万卷训练数据集。然后是预训练和微调模型的方式。
2024-04-01 18:40:45 299
原创 NEUQ-ACM预备队必做题——第三周
记f[n]为n的序列方案数字, 那么只需要找到, 因为当前的数n, 可以在每个1 ~ n/2的序列前面加上一个n即可, 然后n自己也可以是一个序列, 故而可以得到递推式。
2023-10-26 20:02:02 27
原创 NEUQ-ACM预备队选做题——第二周
使用双指针算法,先对所有纪念品的价格进行排序,然后使用两个“指针”,一个指向最小的价格,另一个指向最大的价格。然后通过判断两个指针指向的价格是否小于w,移动两个指针。
2023-10-19 19:17:51 63 1
原创 NEUQ-ACM预备队必做题——第二周
这题需要知道的一点就是当两个士兵相遇时,其实没有任何影响;因为彼此都是士兵,没有任何不同,相当于互相穿过了对方。知道了士兵相遇之后并不对结果产生影响之后,通过枚举每一个点,知道当前点的士兵(们)到达两边的最短时间和最长时间,然后找出能完成逃跑的最小与最大时间即可。
2023-10-17 23:39:53 30
原创 NEUQ-ACM预备队选做题——第一周
看了这题的l的数据范围,不是很大,所以暴力即可。一开始我是想着一重循环,先枚举一个数,然后通过计算得出另一个数(明显这很不方便),然后把需要满足的条件怼上去,得出结果即可,但是因为有很多的除法运算,因而导致精度出现很大问题,怎么也过不了。然后瞄了一眼题解,改成了两重循环,并且把除法都换成乘法比较,然后很容易的过了。
2023-10-14 15:22:44 30 1
原创 NEUQ-ACM预备队必做题——第一周
因为需要求这几个数的最短等差数列,那么可以将这几个数排列,然后找到相邻两个数的最大公因数,而这个最大公因数就是等差数列的最大公差。大概在半年前写过,但是时间太长也差不多忘了,再写还是没写出来,没想到用二分答案做。这题的话觉得没什么可说的,可以说是模板题,写个模板即可。的距离是3,我一直以为是看两个位置之间的距离,所以。二分查找,基本也是模板题,一开始查找里面的。题目中有个需要注意的地方,比如位置。里面的条件写反了,查了一会😭。
2023-10-12 22:26:55 44 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人