自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 A Survey for Foundation Models in Autonomous Driving(翻译)

基础模型的出现在自然语言处理和计算机视觉领域掀起了革命性的变革,为其在自动驾驶(AD)中的应用铺平了道路。本文调查综述了40多篇研究论文,展示了基础模型在提升AD方面的作用。大型语言模型通过其在推理、代码生成和翻译方面的熟练能力,特别是在AD的规划和仿真中发挥着重要作用。与此同时,视觉基础模型越来越多地被适应于关键任务,如3D物体检测和跟踪,以及为仿真和测试创建逼真的驾驶场景。集成多样输入的多模态基础模型表现出卓越的视觉理解和空间推理能力,这对于端到端的AD至关重要。

2024-03-03 17:49:28 1220 1

原创 chatgpt4图像理解及空间推理能力的简单测试

原图:1. 图像理解与分析对图像的整体理解非常到位,文字识别也不错接下来测试一些细节信息2. 空间理解及推理能力测试对文字的空间信息进行提问,回答基本错误,chatgpt4在这方面的能力有所欠缺,可能是没有文字的空间信息。后面测试一下对常见物体的空间信息的理解能力。

2024-02-21 20:31:18 389

原创 书生浦语大模型实战营笔记作业汇总

第一课:第二课:第三课:第四课:第五课:第六课:

2024-01-29 16:25:58 414

原创 vscode tunnel service 将tunnel作为linux系统服务一直运行

按照terminal提示选择github账户,授权。1. 下载vscode cli文件。2.执行code tunnel。3.code以用户服务守护运行。

2024-01-28 19:00:51 531

原创 Lagent调用mmdetection api

1.1 使用安装和1.2 安装mmdet。

2024-01-26 16:52:06 416 1

原创 VSCode debug调试技巧

在VSCode中,导航到侧边栏的"Run and Debug"部分,点击"create a launch.json file"来创建一个新的配置文件,如果已经存在,则选择"Add Configuration..."。在Visual Studio Code (VSCode) 中进行Streamlit应用的调试,首先确保你已经安装了Python扩展,并且配置了适当的Python解释器。- 在`launch.json`文件中,你需要添加一个新的配置来运行Streamlit命令。

2024-01-24 20:18:47 1079

原创 查看和设置特定GPU进行深度学习训练

【代码】查看和设置特定GPU进行深度学习训练。

2024-01-24 01:09:23 472

原创 书生浦语大模型实战营第六次课作业-OpenCompass大模型评测

使用 OpenCompass 评测 InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能。

2024-01-22 21:05:46 474

原创 书生浦语大模型实战营第六次课笔记-OpenCompass大模型评测

2. 为什么需要评测3. 需要评测什么4. 如何评测大模型5. 主流大模型评测框架6. 大模型评测领域的挑战

2024-01-21 15:28:56 473

原创 书生浦语大模型实战营第五次课笔记-LMDeploy部署

这首诗有点奇怪....

2024-01-17 15:51:23 422

原创 书生浦语大模型实战营第五次课作业-LMDeploy部署

对internlm-chat-7b模型进行量化,并同时使用KV Cache量化,使用量化后的模型完成API服务的部署,分别对比模型量化前后和 KV Cache 量化前后的显存大小(将 bs设置为 1 和 max len 设置为512)遇到了一点小问题,原因是安装lmdeploy时,安装到了其他路径。可以看到使用W4A16量化后,显存明显下降。第二步:通过 minmax 获取量化参数。未打开KV Cache量化,GPU占用。差别不大,很奇怪,找了半天,没找出原因。打开KV Cache量化,GPU占用。

2024-01-17 15:50:27 396

原创 书生浦语大模型实战营第四次课笔记

以数据集为例基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐。

2024-01-14 15:01:24 1158

原创 书生浦语大模型实战营第四次课作业-使用XTuner 微调 InternLM-Chat-7B 模型

书生浦语大模型实战营第四次课作业构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手,效果如下图所示,本作业训练出来的模型的输出需要替换成自己名字或昵称!

2024-01-14 14:58:15 450

原创 书生浦语大模型实战营第三次课作业

随便问了几个相关问题,大部分没啥问题,都可以从构建的数据库中检索出答案,但不太完善,其中有一些回答会出现乱码。(1)由于源码中不支持使用pdf文件构建数据库,因此需要做一些修改,添加对pdf文件的支持。(2)LangChain 相关环境配置,建议使用清华源,会快很多(pip最后添加。选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在。(1)由于开发机之前已经配置过conda环境和模型了,直接复制过来即可。从结果可以看出能成功从个人构建的数据库中检索出上下文,然后进行回答。

2024-01-11 18:19:24 387

原创 书生浦语大模型实战营第三次课笔记

简介:LangChain 是一套专为 LLM 开发打造的开源框架,实现了 LLM 多种强大能力的利用,提供了 Chain、Agent、Tool 等多种封装工具,基于 LangChain 可以便捷开发应用程序,极大化发挥 LLM 潜能。这次课程介绍了基于InternLM和Langchain去搭建个人知识库。1.LLM的局限性2.RAG vs FinetuneRAG指的是检索问答增强,Finetune是大模型微调3.基于Langchain搭建RAG应用的流程4.将个人数据转换

2024-01-11 16:31:03 433 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除