- 博客(17)
- 收藏
- 关注
原创 ubuntu20.04+GPU+CUDA11.1 部署 torch 开发
1、部署CUDA安装可以使用这篇blog中的方法, 但是执行到第三个 step 就 OK 了ubuntu20.04+GPU+CUDA11.1+cuDNN8.0.5+Miniconda3+pytorch1.8.1+torchversion0.9.1+pycharm_spiderjxl的博客-CSDN博客_nvcc--version本机环境:拯救者R720+GeForce GTX1060+ubuntu20.04(不是双系统,windows10被我格掉了)1.NVIDIA显卡安装NVIDIA显卡驱动尝试了很.
2022-05-08 17:24:59 836
原创 UnicodeDecodeError: ‘utf-8‘ codec can‘t decode byte 0xd0 in position 50: invalid continuation byte
程序一运行,就抛出了这个错误:UnicodeDecodeError: 'utf-8' codec can't decode byte 0xd0 in position 50: invalid continuation byte在程序的头部,加上如下代码:#-*- coding: utf-8 -*-
2022-01-25 21:08:55 481
原创 UnicodeEncodeError: ‘gbk‘ codec can‘t encode character ‘\u0120‘ in position 2: illegal multibyte seq
在文件头部写上:#-*- coding: utf-8 -*-
2022-01-16 13:38:36 528
原创 模型指标Precision, recall, and F-score
在使用 sklearn 函数进行相关值计算时候,抛出了这样一个警告:Precision and F-score are ill-defined and being set to 0.0 in labels with no predicted samples. Use `zero_division` parameter to control this behavior. (原因是 在y-pred_1当中 没有预测出2这个类别,所以抛出了异常。)代码如下:from sklearn.metrics impo
2022-01-08 16:41:25 1321
原创 re.search() 中pattern 传入的是 变量名时
在使用 re.search() 进行字符串查找,当 pattern 传入的是一个变量名时,re.search() 不起作用了,代码如下:import restr_1 = 'system.out.print();'str_2 = 'system.out.print()'str_ = 'public void main() { system.out.print(); }'t1 = re.search(str_1,str_) # 此时返回的是 Nonet2 = re.search(str_2,s
2022-01-06 09:12:41 770
原创 python 以某个字符分割 但保留该字符
我们平常分割使用的是 split 这个函数,但是要保留某个分隔符,split却无法实现。此时我们使用 re.split() 这个函数代码示例如下:import restr_1 = 'sldfl;slkdjfl;sldjfl;sdklf'str_2 = re.split('([;])',str_1 ) # 注意,这里要用 ([]) 将分隔符 包住str_2 .append("")str_2 = ["".join(i) for i in zip(str_2 [0::2],str_2 [
2022-01-05 21:14:18 2042
原创 python 程序中执行cmd 命令
方法1、通过 os 模块. 这种方法,我碰到一个问题就是, 无论我怎么修改 decode 编码,所输出的信息,一直出现乱码。所以我没有使用这种方法。(网上找了很多种方法,都不起作用)import osimport syscmd = 'javac '+'../Class_1.java'res = os.popen(cmd)output_str = res.buffer.read().decode(encoding='utf-8')print(output_str)方法2、通过subpr
2022-01-05 16:35:20 992
原创 Attention
Attention 就是对三个 矩阵的运算, Q, K, V图示: 三个矩阵的如 Fig.1所示如何获取这三个矩阵向量呢?首先 得到 单词的词向量,然后 和 同一套参数 矩阵做乘法,便得到了 每个单词的 所对应的三个矩阵。拿上面的例子来说: 如何计算attention value呢?( 下面是计算 Thinking 对 Machines 的 attention 的value。)以下是 Q,K,V 的计算方法刚刚有提到 是一套参数,在transfo...
2021-12-27 20:11:53 440
原创 记录一些对tensor的操作
从 tensor 中 取出 value:print(tensor_value)# tensor(26602)print(tensor_value.item())# 26602tensor 插入token_tensorOut[27]: tensor([[ 0, 45093, 766, 13, 26602, 45200, 16, 50264, 4, 34222, 45200, 6, 5, 3260, 5377, .
2021-12-24 21:49:47 934
原创 Python 对csv 文件的一些操作
1、利用csv package 将字典写入csv文件with open('my_file.csv', 'w') as f: [f.write('{0},{1}\n'.format(key, value)) for key, value in my_dict.items()]2、利用pandas 读取 csv 文件的某一列或者某一行import pandas as pdpath = 'myfile.csv'data = pd.read_csv(path) #读取文件中所有数据
2021-12-24 20:27:49 934
原创 python 文件访问
import os print('***获取当前目录***') # ./project_root/project/model/model.pyprint("当前目录是:{}".format(os.getcwd()))print("当前目录是:{}".format(os.path.abspath(os.path.dirname(__file__))))print("当前目录是:{}".format(os.path.realpath(os.path.join(os.getcwd(), os.pat.
2021-12-22 20:10:01 699
原创 nn.TransformerDecoderLayer
import torchimport torch.nn as nndecode_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8) # d_model is the input feature, nhead is the number of head in the multiheadattentionmemory = torch.ones(10,32,512) # the sequence from the last layer o.
2021-12-20 15:26:37 3863 1
原创 Roberta 源码阅读
tokenizer = RobertaTokenizer.from_pretrained('microsoft/codebert-base-mlm')model = RobertaForMaskedLM.from_pretrained('microsoft/codebert-base-mlm')input_ids = tokenizer(['Language model is what I need.','I love China'],padding=True,return_tensors='pt').
2021-12-17 21:07:07 3276
原创 Error: A JNI error has occurred, please check your installation and try again
Error: A JNI error has occurred, please check your installation and try again
2021-12-15 10:38:12 1494
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人