自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 bert 模型参数统计

使用代码验证bert模型中的参数

2022-05-01 18:37:30 3691

原创 spacy离线安装

spacy 离线安装连接分享

2022-01-09 10:32:30 478

原创 python 将多个txt写入一个Excel中

将多个txt写入Excel在output文件夹下有多个TXT文件,每个TXT文件有10行,现将所有txt内容写入excel中。一个txt内容如下:在excel中的结果如下:代码如下:import xlrdimport osfrom xlutils.copy import copyclass Solution: def __init__(self): self.row = 0 self.col = 0 def read_from_txt(s

2021-08-05 21:56:39 1947 1

原创 python 第一个元素生序,第二个元素降序

这里写自定义目录标题python 第一个元素生序,第二个元素降序python 第一个元素生序,第二个元素降序假设对以下列表排序data = [[5,4],[0,4],[7,3],[-1,4],[6,4],[6,8],[6,7],[2,3]]1、按第一个元素生序排列:data1 = sorted(data,key=lambda x: x[0],reverse=False)输出为:[[-1, 4], [0, 4], [2, 3], [5, 4], [6, 4], [6, 8], [6, 7],

2021-07-03 13:54:40 1586 1

原创 spark中join,leftOuterJoin以及rightOuterJoin的用法(python)

spark 中join、leftOuterJoin以及rightOuterJoin的用法详解 这三个都是针对两个pair RDD的操作。语法为: pair_rdd1.xxxx(pair_rdd2),其中xxxx为三个转化操作。1、join的用法 手动设定两个pair RDDpairRDD1 = sc.parallelize([('Apple',10),('Orange',5),('pair',1)])pairRDD2 = sc.parallelize([('Apple',5),('Or

2021-05-07 10:55:56 1689

原创 机器学习算法---svm

机器学习算法—svm本文从3个方面介绍svm算法:1)将svm的算法思想转化为数学公式2)公式的求解3)实践      ~~~~~~      svm有三类:硬间隔svm(线性可分)、软间隔svm(非线性可分)、核函数svm(线性不可分)。1、svm—算法思想及公式的转换以硬间隔svm为例,详细讲解svm算法原理:     

2021-02-19 15:56:30 1047

原创 tensor[...,0]的作用

在yolo源码中,有这样几行代码: x = torch.sigmoid(prediction[..., 0]) # Center x y = torch.sigmoid(prediction[..., 1]) # Center y w = prediction[..., 2] # Width h = prediction[..., 3] # Height pred_conf = torch.sigmoid(predict

2020-12-30 16:39:15 1460 1

原创 pytorch 修改网络结构后加载预训练模型

训练模型时,我们通常会加入预训练模型来初始化网络。以AlexNet为例:class AlexNet(nn.Module): def __init__(self, num_classes=1000, init_weights=False): super(AlexNet, self).__init__() self.features = nn.Sequential( nn.Conv2d(3, 48, kernel_size=11, strid

2020-12-04 19:19:09 6877

原创 python 如何获取当地时间

有时候跑程序中需要获取当时的时间,Python中只要三行代码搞定导入 time 包,获取此刻的时间戳,然后格式化为我们需要的格式。 import time now = time.localtime() print(now) format_now = time.strftime('%Y/%m/%d %H:%M:%S', now) print(format_now)输出如下:简要记录一下,以后可能会用到。...

2020-11-07 22:28:15 698

原创 pytorch 中 CrossEntropyLoss 报错

在 pytorch 中,交叉熵损失函数会报以下的错:该错误的原因是目标的类别数与预测的类别数不匹配。只将 CrossEntropyLoss损失函数拿出来,看一下输入和输出。以下代码可以正常的输出loss的值:import torchcriterion = torch.nn.CrossEntropyLoss()x = torch.rand(10, 10) # x.shape[10,10]y = torch.tensor([0,1,2,3,4,5,6,7,8,9]) # y.sha

2020-08-15 10:05:00 1341 1

原创 yolov3的详细理解

模型下面是yolov3的网络结构,可以将该网络分成两部分来看,特征提取部分和预测部分。上面(黑色框中)特征提取部分为Darknet53,该网络为全卷积(没有池化层,通过调整卷积的步长来进行下采样) 。下面 预测部分,一共有三层输出,分别是13 ×\times× 13 ×\times× 255、 26 ×\times× 26 ×\times× 255、 52 ×\times× 52 ×\times× 255。这些数字代表的含义在下文部分详细介绍。CBL为卷积块:由conv2d,Batch Normal

2020-07-28 16:22:15 3962 2

原创 数组切片[1::2]怎么理解

python中数组切片在数组a中,有三个地方可以设置参数a[①:②:③]。位置①列表初始索引,默认为0位置②列表结束索引,默认到最后一个元素(包含最后一个元素)位置③为步长,默认为1a = np.arange(1, 10)print(a) # [1 2 3 4 5 6 7 8 9]print(a[::]) # [1 2 3 4 5 6 7 8 9]print(a[0:-1:]) # [1 2 3 4 5 6 7 8]print(a[0::]) # [1 2 3 4 5 6 7 8

2020-06-29 16:40:28 5048

原创 使用visdom查看多张图片

由于在服务器上没有图形化界面,想要查看图片不是很方便,可以使用visdom一次性查看多张图片。本代码实现的功能是:给出一个指定的路径,可以将该路径下文件夹中所有的图片用visdom可视化,完整的代码附在文章最后。def allpath(path): files = os.listdir(path) filespath = [] for file in files: filepath = os.path.join(path, file) filesp

2020-06-13 00:10:46 1978

原创 使用git将本地代码推送到github

新下载的git需要配置用户名和邮箱:打开git bash输入以下两条命令:git config --global user.name “Your Name”git config --global user.email “email@example.com”可以用git config --list 查看配置信息。新建一个文件夹,进入该文件夹并初始化:新建一个名为git的文件夹,cd git 进去此文件夹,git init对该文件夹初始化。打开该文件夹,将需要上传的代码copy到该文件夹下,

2020-06-10 15:21:17 567

原创 训练一个epoch后数组越界报错

训练一个epoch后报错pytorch 在跑yolov3代码时,可以训练一个epoch,然后报错,内容如下:竟然是数组越界。先说解决方法,在classes_names最后一行加个空白行:代码可以正常运行了。debug过程在读取classes_names时设置断点,输出classes_names:发现只有一个标签,明明设置的是两个标签,只读到了dog,没有读入cat。进入load_classes函数中,发现该函数是以换行符读取每行数据的:这就导致第二个标签cat没读入,加个空白行即可读入第二

2020-06-09 10:40:51 1753

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除