- 博客(2)
- 收藏
- 关注
原创 Llama3-Xtuner实践
参考: https://github.com/SmartFlowAI/Llama3-Tutorial/tree/main实验环境 RTX A 6000conda安装pip安装下载模型在InterStudio中创建开发机,在对应路径创建软连接打包压缩后右键下载完整模型打包后共12G,下载之后上传至自己的服务器解压安装 XTuner 时会自动安装其他依赖这里在自己的服务器下载不下来XTuner,也可以在InterStudio中下载了打包传到自己服务器里进行安装运行 web_demo.py实验
2024-05-10 18:49:02 831
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人