![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
linux服务器
文章平均质量分 80
COHREZ
这个作者很懒,什么都没留下…
展开
-
vscode远程连接服务器问题汇总
vscode远程连接服务器问题汇总吐槽问题1 服务器用户名和key改变后,无法port forwarding解决方案:问题二 建立连接过程中卡住或者报XHRfailed解决方案:问题3: 未知原因的could not establish connection吐槽vscode连远程真的很简单,只需一个ssh-remote插件,设置简单(相比pycharm)。但是总有一些小问题,比如连接不稳定,无需本地建立对应的文件(需要定期进行备份,防止服务器崩溃造成丢失文件等。配合terminus的sftp功能,使原创 2022-05-03 22:05:26 · 12990 阅读 · 15 评论 -
解决huggingface中模型无法自动下载或者下载过慢的问题
项目场景:调用hugging face公开模型数据集中的transformers模型。问题描述默认源在国内下载模型过慢,甚至不开始下载。原因分析:部分博客解决方案为:在from_pretrained中添加参数mirror="tuna" 将下载源替换为清华源。tokenizer = BertTokenizer.from_pretrained("bert-base-uncased", mirror="tuna")然而,清华源现在不支持hugging face的下载(2021.8月之后)。原创 2022-04-01 22:34:50 · 29184 阅读 · 0 评论 -
conda基本使用
conda基本使用1 conda作用2 基本操作2.1 源(channel)相关操作2.2 环境(env)操作2.3 包操作3 总结1 conda作用2 基本操作记录一些conda基本操作2.1 源(channel)相关操作pip等操作需要指定默认的下载源(例如清华源等)显示现有的源conda config --showchannels处可以看出目前的源包括默认源有5种新增源:conda config --add channels https://mirrors.tuna原创 2022-04-01 21:31:40 · 1474 阅读 · 0 评论 -
pytorch多GPU并行训练DistributedDataParallel应用和踩坑记录
1 DataParallel据说存在多个GPU之间显存不均衡的问题,因此我直接选择了pytorch所建议的DistributedDataParallel,为多机多卡设计,但同时也可以实现单机多卡,能够使得各个GPU之间负载均衡。2 DistributedDataParallel现在的DistributedDataParallel是基于多进程策略的多GPU训练方式。首先是单机多卡的方式上,针对每个GPU,启动一个进程,然后这些进程在最开始的时候会保持一致,同时在更新模型的时候,梯度传播也是完全一致的,原创 2021-10-26 16:10:04 · 3648 阅读 · 6 评论 -
Linux服务器安装pytorch & 踩坑记录
mac安装pytorch环境cpu版本环境管理安装pytorch包环境管理步骤1 安装anaconda 检查conda版本证明安装成功conda --version步骤2 新建pytorch虚拟环境conda create -n pytorch 注意:-n与–name等同 -n后是环境名称步骤3 列出所有环境名称 确认新环境创建成功conda info --envs 步骤4 切换到新创建的环境中conda activate pytorch安装pytorch包步骤1 安装pyt原创 2021-03-10 15:39:23 · 1866 阅读 · 2 评论 -
linux服务器相关指令——后台运行进程
linux服务器相关指令将程序移到后台执行查看进程前后台切换参考链接:功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图将程序移到后台执行nohup python -u test.py > test.log 2>&1 &原创 2021-08-30 22:28:24 · 568 阅读 · 0 评论