自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 Git基本用法备忘以及问题记录

git基本用法备忘以及问题记录

2022-07-26 15:55:01 3974 1

原创 Ubuntu配置GStreamer实现python推流

想用python实现一个推流服务,下面记录一下配置过程。系统是ubuntu18.04,python3.6和3.8中都试过。1、安装gstreamersudo apt-get install libgstreamer1.0-0 gstreamer1.0-plugins-base gstreamer1.0-plugins-good gstreamer1.0-plugins-bad gstreamer1.0-plugins-ugly gstreamer1.0-libav gstreamer1.0-d

2021-10-15 21:43:13 3333 7

原创 ubuntu下TensorRT 7/8环境配置及安装

为了部署YOLO V5的模型,部署了两次TensorRT,每次都踩了不少坑,决定把完整的过程及踩过的坑记录下来。一些需要提前强调的点:所选择的TensorRT版本一定要与自己系统中的CUDA相对应(目前最新的是支持到了11.2,但不建议选择11.2,之前尝试过,无法配置成功;因此我选择了安装CUDA 11.1) 仅支持以deb方式安装的CUDA(以runfile方式安装的CUDA会遗漏一些组件,会出现如下的报错)。还看到一种说法是从某个cuda版本开始后,.run安装会把libcublas.so这

2021-09-24 14:18:31 1542 1

原创 ubuntu配置开机自启动(非.bashrc)

现有的一些开机自动运行方法存在一些缺陷:在.bashrc中添加运行命令会导致每次连接新的终端都会运行程序;同理,在/etc/profile.d/目录中存放sh脚本亦会如此; ubuntu16及以上版本中,已无rc.local。而本文所介绍的方法比较方便且没有以上问题。一 、创建脚本sudo vim /etc/systemd/system/xxx.servicexxx是你给自己服务自定义的名字。文件内容如下:[Unit]Description=xxx[Service].

2021-09-16 11:08:19 623

原创 USING TRANSFORMERS(二) | 训练和微调

???? transformer中的模型类被设计为与本机PyTorch和TensorFlow 2兼容,并且可以与其中任何一个无缝使用。在这个快速入门中,我们将展示如何使用两种框架中可用的标准培训工具来微调(或从头开始培训)模型。我们还将展示如何使用包含的Trainer()类,它可以为您处理很多复杂的训练。本指南假设您已经熟悉加载和使用我们的模型进行推理;否则,请参见任务摘要。我们还假设您熟悉深度神经网络的训练。在本地PyTorch中进行微调???? transformer中不以TF开头的模型类是P

2021-03-10 17:02:56 941

转载 USING TRANSFORMERS(一) | Transformers可以做哪些Task?

目录前言基本用法预处理文本序列对关于填充(padding)和截断(truncation)的所有信息Pre-tokenized输入前言在本教程中,我们将探讨如何使用 Transformers来预处理数据,主要使用的工具称为tokenizer。 tokenizer可以与特定的模型关联的tokenizer类来创建,也可以直接使用AutoTokenizer类来创建。正如我在素轻:HuggingFace | 一起玩预训练语言模型吧中写到的那样,tokenizer首先将给定的文本拆.

2021-03-09 20:35:59 168

原创 HuggingFace(二) | Transformers类模型的输入有哪些?

Glossary(术语)请确保你了解以下的术语,在这里会简单的介绍各个术语:自编码模型: see MLM; 自回归模型: see CLM; CLM: Causal Language Modeling. 标准语言模型,其训练task一般是从左往右对输入序列进行下一个token的预测; MLM: Masked Language Modeling. 掩码语言模型,其训练task一般通过对输入序列的token随机mask并进行预测; multimodal: 将文本与另一种输入(例如图像)结合在一起的

2021-03-09 19:24:44 688

原创 HuggingFace(一) | 一起玩预训练语言模型吧

Hugging Face的目标尽可能的让每个人简单,快速地使用最好的预训练语言模型; 希望每个人都能来对预训练语言模型进行研究。不管你使用Pytorch还是TensorFlow,都能在Hugging Face提供的资源中自如切换Hugging Face的主页Hugging Face – On a mission to solve NLP, one commit at a time.Hugging Face所有模型的地址https://huggingface.co/models你可

2021-03-09 19:14:32 2466

原创 ubuntu18.04 安装CUDA11.0+cuDNN8.0.5+TensorFlow2.4.0

前几天在系里申请了个云计算资源,准备用来跑一个论文里的模型,系统是全新的ubuntu18.04.1,需要自己配一下环境。1.安装/更新GPU驱动输入命令查看显卡信息,以及是否已经安装驱动。nvidia-smi可以看到有两块Tesla V100,驱动也都装好了,版本是418的,有点老了,注意有一个“CUDA Version: 10.1”,说明这个驱动只能安装CUDA10.1及以下的版本。所以要先卸载原来的驱动,再安装更高级的版本(如果原来没有驱动,直接安装就可以了);卸载及安装.

2021-01-27 14:49:54 8995 13

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除