python
文章平均质量分 60
卖小麦←_←
这个作者很懒,什么都没留下…
展开
-
【InternLM 大模型实战】作业与笔记汇总
作业2:https://github.com/xiaomile/InternLM-homework/tree/main/%E4%BD%9C%E4%B8%9A1。作业3:https://github.com/xiaomile/InternLM-homework/tree/main/%E4%BD%9C%E4%B8%9A2。作业4:https://github.com/xiaomile/InternLM-homework/tree/main/%E4%BD%9C%E4%B8%9A3。原创 2024-01-29 10:44:31 · 442 阅读 · 0 评论 -
【InternLM 大模型实战】第六课
有部分第三方功能,如代码能力基准测试 Humaneval 以及 Llama格式的模型评测,可能需要额外步骤才能正常运行,如需评测,详细步骤请参考。例如基座模型评测的时候需要给一个instruct(即给个格式,让大语言模型按照格式回答),对话模型则直接像人一样提问和回答就好了。主观评测:对一些主管的问题,如诗歌的谁写的更优,这种评测要做自动化的则需要用模型(如chatgpt)去评测模型。客观评测:无论模型怎么回答,只要能从回答中提取到我们想要的关键词,那就是正确的。进行全面的模型测试。原创 2024-01-22 01:32:51 · 928 阅读 · 0 评论 -
【InternLM 大模型实战】第五课
1、将训练好的模型在特定的软硬件环境中启动的过程,使模型能够接收输入并返回预测效果2、为了满足性能和效率的需求,常常需要对模型进行优化,例如模型压缩和硬件加速LMDeploy 是LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。原创 2024-01-15 01:25:14 · 1120 阅读 · 0 评论 -
【InternLM 大模型实战】第四课
LLM下游应用中,增量预训练和指令跟随是经常会用到的两种微调模式傻瓜式:以配置文件的形式封装了大部分微调场景,0基础的非专业人员也能一键开始微调轻量级:对于7B参数量的LLM,微调所需的显存仅为8GB,满足大部分消费级显卡基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐此时,我们重新建一个文件夹来玩“微调自定义数据集”把前面下载好的internlm-chat-7b模型文件夹拷贝过来。别忘了把自定义数据集,即几个 .jsonL,也传到服务器上。原创 2024-01-13 15:34:33 · 1013 阅读 · 0 评论 -
【InternLM 大模型实战】第三课
LangChain 框架是一个开源工具,通过为各种LLM提供通用的接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用LangChain的核心模块:链(Chains):将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作例如检索问答链,覆盖实现了RAG的全部流程实例化一个基于 InternLM 自定义的 LLM 对象llm.predict("你是谁")原创 2024-01-09 16:36:45 · 887 阅读 · 0 评论 -
【InternLM 大模型实战】第二课
大模型定义:人工智能领域中参数量巨大,拥有庞大计算能力和参数规模的模型InternLM支持在数千个GPU集群上进行训练,并在单个GPU上进行微调并保持卓越的性能优化。在1024个GPU上训练时,可以实现近90%的加速效率Lagent是一个轻量级,开源的大语言模型的智能体框架,用户可以快速地将一个大语言模型转变成多种类型的智能体,并提供了一些典型工具为大语言模型赋能优势:1、为用户打造图文并茂的专属文章2、设计了高效的训练策略,为模型注入海量的多模态概念和知识数据,赋予其强大的图文理解和对话能力。原创 2024-01-06 13:34:56 · 880 阅读 · 0 评论 -
用qpython 3C写个扫码器
收到反馈说gitee的链接失效,github的又打不开,所以写个博文。很简单,点击项目和脚本,找到刚刚新建的项目,点击运行即可。后面重新进入app后怎么打开之前新建的项目呢?原创 2023-09-26 23:40:24 · 188 阅读 · 0 评论 -
深度学习预训练与MMPretrain
mmpretrain包含丰富主干网络,包括近期非常火热的主干网络(Vit,swintransformer)和经典的主干网络(vgg,resnet)等等同时也支持多模态学习,例如clip。原创 2023-06-06 09:33:58 · 188 阅读 · 0 评论 -
openmmlab 笔记7
palette = [[128,0,0],[0,128,0],[0,0,128]] 指定好对应的颜色。classes=[‘a’,‘b’,‘c’] 指定好对应的类别。用mim安装mmengine mmcv两个基础库。在github下载时加上-b dev1.x。config目录下有各种模型的demo。把语义分割和原图叠加在一张图上显示。在自己的数据集上训练语义分割模型。根据自己的cuda安装。原创 2023-02-11 16:55:08 · 130 阅读 · 0 评论 -
openmmlab笔记6
解决方法:fcn :基于低层次和高层次特征图分别产生类别预测,升采样到原图大小,再平均得到最终结果。预测图的升采样:由于卷积分类后的输出尺寸小于输入,而分割需要原图尺寸,所以需要对输出图进行上采样。2、转置卷积——可学习的升采样层 (反卷积?复用卷积计算:在滑窗上计算卷积,再将卷积核用于原图上计算特征进行分类。原图(细节丰富,语义贫瘠)—— 高层次特征图(细节贫瘠,语义丰富)按颜色分割:相同相邻颜色的像素为同一物体,按图像处理的方法分割。由于上采样得到的图比较粗糙,细节丢失严重。逐级融合高低层次特征。原创 2023-02-10 23:42:50 · 77 阅读 · 0 评论 -
openmmlab 笔记5
mmdetection 环境搭建工具 openbayes新建一个,选择gpu 镜像选pytorch数据绑定交互方式 jupyter数据集 简单的水果图片pip 安装mmdetection 依赖库pytorch。原创 2023-02-08 23:33:02 · 331 阅读 · 0 评论 -
openmmlab 笔记4
【代码】openmmlab 笔记4。原创 2023-02-07 23:47:21 · 53 阅读 · 0 评论 -
openmmlab 笔记3
openmmlab 第三天笔记原创 2023-02-04 16:45:12 · 98 阅读 · 0 评论 -
openmmlab 笔记2
今天说的内容太硬核了,每一页ppt都是一篇论文,因此记得不全经验:学习率和batch size 相关,如果batch size 放大k倍,则学习率也要放大k倍。还有一种情况,就是论文是1卡配置,你复现的时候是4卡,那也相当于是batch size放大了4倍,学习率也要放大4倍早停策略:损失率不降反升,或者停滞不前,就要cut掉数据增强:随机变换,几何变换,色彩变换,随机遮挡增强模型泛化性,扩充训练样本,减少过拟合标签平滑:类别标注可能是错,使用标签平滑训练校准网络。原创 2023-02-03 19:03:21 · 97 阅读 · 0 评论 -
openmmlab打卡笔记1
今天听了子豪兄的课,收获如下:由于不是计算机系科班出身,有一些听了就在想为什么会是这样呢,所以记得比较凌乱。原创 2023-02-02 17:47:08 · 93 阅读 · 0 评论 -
pyinstaller 踩坑uvicorn
fastapi,uvicorn pyinstaller 打包踩坑记录原创 2023-01-16 18:31:55 · 1323 阅读 · 0 评论 -
Windows 10 安装 openmmlab的mmediting
安装openmmlab下的mmediting,并测试超分辨率修复效果原创 2022-09-23 01:06:54 · 998 阅读 · 0 评论 -
简单的图像中箭头方向识别
简单的图象是箭头方向识别,对图像做卷积,从矩阵里找最大值作为这个卷积核的得分,然后四个卷积核里得分最高的那个作为这个图像箭头所指的方向原创 2022-07-13 13:04:20 · 2935 阅读 · 1 评论 -
pyx 编译成 pyd
py编译成C python扩展包(pyd)的方法原创 2022-05-19 14:35:26 · 1473 阅读 · 0 评论 -
python 计算速度比较
计算任务:斐波拉契数列第40项实现方式:1、python编译成C后执行计算2、python实现闭包并编译成C后执行计算3、纯python实现闭包后执行计算4、纯python实现递归加速后执行计算5、纯python执行计算计算结果如下:python编译成C|斐波拉契数列第40项为:102334155,耗时:11.8078316秒python实现闭包并编译成C|斐波拉契数列第40项为:102334155,耗时:1.2500000000414957e-05秒纯python实现闭包|斐波拉契数列原创 2022-05-19 12:28:34 · 1194 阅读 · 0 评论 -
关于selenium firefox 代理设置踩坑
之前一直以为代理设置就是简单的加上这些语句就可以了profile.set_preference("network.proxy.type", 1)profile.set_preference("network.proxy.http", ip) profile.set_preference("network.proxy.http_port", int(port)) profile.set_preference("general.useragent.override", generate_user原创 2020-06-04 17:58:27 · 1357 阅读 · 2 评论