自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

VIEO

TRY AND TEST

  • 博客(27)
  • 资源 (3)
  • 收藏
  • 关注

原创 SoftMarginLoss原理

1.triple_lossclass TripleLoss(object): """Modified from Tong Xiao's open-reid (https://github.com/Cysu/open-reid). Related Triplet Loss theory can be found in paper 'In Defense of the Triplet Loss for Person Re-Identification'.""" def _

2020-08-26 08:22:05 1994 1

原创 Pytorch如何自定义损失函数

Pytorch如何自定义损失函数(Loss Function)? - vector的回答 - 知乎 https://www.zhihu.com/question/66988664/answer/247952270

2020-08-24 16:05:16 630

转载 MarginRankingLoss

https://zhuanlan.zhihu.com/p/83364904MarginRankingLoss大家可能对这个损失函数比较陌生。在机器学习领域,了解一个概念最直观的最快速的方式便是从它的名字开始。MarginRankingLoss也是如此,拆分一下,Margin,Ranking,Loss。Margin:前端同学对Margin是再熟悉不过了,它表示两个元素之间的间隔。在机器学习中其实Margin也有类似的意思,它可以理解为一个可变的加在loss上的一个偏移量。也就是表明这个方法

2020-08-23 22:38:12 7474

原创 python 列表list保留小数点后n位

保留后4位a = [0.5013333559036255, 0.7313334345817566, 0.843999981880188, 0.8953333497047424, 0.9380000233650208, 0.9699999690055847, 0.9839999079704285, 0.9913332462310791, 0.9953333139419556]b = [float('{:.4f}'.format(i)) for i in a]output:b=[0.5.

2020-08-23 15:54:35 16519 2

转载 ubuntu新建删除用户

来源:csdn1 添加新用户1.1 添加新用户sudo useradd go -d /home/go -m#第一个go,指用户名#-d /home/go 指定用户登录系统时的主目录,宿主目录#-m 如果/home/go路径不存在,自动创建1.1.1删除用户sudo useradd username -m1.2 查看新建的用户cat /etc/passwd | grep go1.3 给新用户设置密码sudo passwd go2 .

2020-08-19 10:58:19 234

原创 算法4推荐下载

《算法第 4 版》文字版 PDF:复制这段内容后打开百度网盘手机App,操作更方便哦 链接:https://pan.baidu.com/s/1XaQKuGS6YX00B1jcz9ptPQ&shfl=sharepset 提取码:a465

2020-08-19 10:21:52 1418 3

原创 对比自监督学习简记

1.阅读笔记-《Data-Efficient Image Recognition with Contrastive Predictive Coding》cpc-code-1:https://github.com/davidtellez/contrastive-predictive-coding cpc-code-2:https://github.com/flrngel/cpc-tensorflow2.CPC (representation learning with contrastive pr.

2020-08-12 22:42:18 781

原创 Triple loss

一、Triplet结构:triplet loss是一种比较好理解的loss,triplet是指的是三元组:Anchor、Positive、Negative:整个训练过程是:首先从训练集中随机选一个样本,称为Anchor(记为x_a)。然后再随机选取一个和Anchor属于同一类的样本,称为Positive (记为x_p)最后再随机选取一个和Anchor属于不同类的样本,称为Negative (记为x_n)由此构成一个(Anchor,Positive,Negative)三元组。二、Triplet

2020-08-12 21:41:26 2222

转载 vim/ideavim命令

IdeaVim插件使用技巧在 IDEA Intellij小技巧和插件 一文中简单介绍了一下IdeaVim插件。在这里详细总结一下这个插件在日常编程中的一些常用小技巧。供有兴趣使用这个插件,但对Vim还不十分熟悉的朋 友参考。当然基本的hjkl移动光标和几种常见模式等等基本概念就略过不提了。为了确保只包含常用操作,这里提到的技巧都没有从现成文档里抄,而是凭记忆列出(不常用自然就不记得了)。估计会有所遗漏,慢慢再补充。1. 切换Vim模拟器状态这个插件允许设置一个快捷键一键开启或关闭,在切换模式时会同时自

2020-08-12 15:38:41 689

原创 pytorch删除指定行、列 选取除某个元素外的所有元素

在pytorch中,想删除tensor中的指定行列,原本以为有个函数或者直接把某一行赋值为[]就可以,结果发现没这么简单,因此用了一个曲线救国方法,希望如果有更直接的方法,请大家指出。code-1shot = args.support_shot # 5way = args.way # 5data = data_ori.reshape(shot, way, 3, 84, 84)anc = data[:, p]pos = anc.repeat(4, 1, 1, 1)neg = dat.

2020-08-11 16:38:58 7037

转载 ubuntu pdf阅读器 护眼色

Okularsudo apt install okular快捷键F5 ReloadF6 打开注释F7 导航栏B 切换黑色背景模式,在幻灯片模式下有效Ctrl + M Show MenubarCtrl + Shift + F 全屏J 向下翻K 向上翻/ 搜索F3 Find NextShift + F3 Find PreviousCtrl + W 关闭当前pdfCtrl + Q 退出OkularCtrl + Shift + S 另存为Ctrl + Z undoCtr

2020-08-10 15:32:27 806

转载 ubuntu查询显卡型号

帮同事配caffe环境,编译通过后只能跑cpu,用gpu会报错。Check failed: error == cudaSuccess (35 vs. 0) CUDA driver version is insufficient for CUDA runtime version*** Check failure stack trace: ***然后用nvidia-smi,也是报错晚上说这个是驱动问题,需要重新安装nvidia驱动,至于如何安装驱动,教程晚上一大把随便丢个教程:https:.

2020-08-06 14:40:25 2265

原创 pycharm删除的文件怎么恢复找回

步骤1、点击被删除文件的所属上级目录右键;2、弹出的右键菜单点击local history,show history3、打开本地历史界面后,点击误删除文件;4、在右侧区域,选中文件,点击右键;5、在右键菜单中点击revert selection即可恢复;...

2020-08-06 09:22:18 12014

原创 pytorch triple-loss

一、Triplet结构:triplet loss是一种比较好理解的loss,triplet是指的是三元组:Anchor、Positive、Negative:整个训练过程是:首先从训练集中随机选一个样本,称为Anchor(记为x_a)。 然后再随机选取一个和Anchor属于同一类的样本,称为Positive (记为x_p) 最后再随机选取一个和Anchor属于不同类的样本,称为Negative (记为x_n)由此构成一个(Anchor,Positive,Negative)三元组。二

2020-08-05 21:14:01 3562

原创 Triple loss

源码 class TripletLoss(nn.Module): """Triplet loss with hard positive/negative mining. Reference: Hermans et al. In Defense of the Triplet Loss for Person Re-Identification. arXiv:1703.07737. Imported from `<https://githu

2020-08-05 21:11:46 198

原创 pytorch数据抽样 随机取样

WeightedRandomSampler不放回只能用WeightedRandomSampler,其他都是放回取样只需将权重都设为1(or相同值)from torch.utils.data import WeightedRandomSampler,DataLoadera = torch.Tensor([1, 2, 3, 4, 5])dataloader = DataLoader(dataset=a, batch_size=4, # 组织成batch大小

2020-08-05 19:28:16 6510

原创 Pytorch不放回随机抽样

WeightedRandomSampler不放回只能用WeightedRandomSampler,其他都是放回取样只需将权重都设为1(or相同值)from torch.utils.data import WeightedRandomSampler,DataLoadera = torch.Tensor([1, 2, 3, 4, 5])dataloader = DataLoader(dataset=a, batch_size=4, # 组织成batc

2020-08-05 16:30:21 2047

原创 python anaconda安装本地包

tar.bz2文件将tar.bz2文件复制到:Anaconda/pkgs文件夹下此时删除原来下载的缓冲文件,再复制或本地安装即可安装前进入待安装环境source activate pytorch-gpu# 要求绝对路径conda install --use-local /home/user/anaconda3/pkgs/pytorch-0.4.0-py35_cuda8.0.61_cudnn7.1.2_1.tar.bz2本地安装的命令如下conda install --use-local y

2020-08-04 20:05:32 5712 1

原创 Anaconda pytorch安装 HTTP错误

https://blog.csdn.net/cxm4399/article/details/100530896

2020-08-04 17:08:21 662

原创 pytorch ignite详解

Ignite - pytorch的高级训练库介绍1 - 水中的鱼的文章 - 知乎 https://zhuanlan.zhihu.com/p/86793245

2020-08-04 16:44:44 716

转载 LinearSVC参数介绍

LinearSVC与SVC的区别LinearSVC基于liblinear库实现有多种惩罚参数和损失函数可供选择训练集实例数量大(大于1万)时也可以很好地进行归一化既支持稠密输入矩阵也支持稀疏输入矩阵多分类问题采用one-vs-rest方法实现SVC基于libsvm库实现训练时间复杂度为 [公式]训练集实例数量大(大于1万)时很难进行归一化多分类问题采用one-vs-rest方法实现2. LinearSVC详细说明LinearSVC实现了线性分类支持向量机,它是给根据liblin.

2020-08-04 09:33:35 12173

转载 神经网络26 个激活函数汇总

在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活函数允许网络复制复杂的非线性行为。正如绝大多数神经网络借助某种形式的梯度下降进行优化,激活函数需要是可微分(或者至少是几乎完全可微分的)。此外,复杂的激活函数也许产生一些梯度消失或爆炸的问题。因此,神经网络倾向于部署若干个特定的激活函数(identity、sigmoid、ReLU 及其变体)。下面是 26 个激活函数的图示及其一阶导数,图的右侧是一些与神经网络相关的属性。1. Step激活函数 Step 更倾向于理论而不是实

2020-08-03 15:44:22 4067

原创 tiny ImageNet

文档:https://tiny-imagenet.herokuapp.com/下载地址:http://cs231n.stanford.edu/tiny-imagenet-200.zipWelcome to the tiny ImageNet evaluation server. Tiny ImageNet Challenge is the default course project for StanfordCS231N. It runs similar to theImageNet chall..

2020-08-02 20:03:03 4631

转载 python@修饰符

python函数修饰符@的作用是为现有函数增加额外的功能,常用于插入日志、性能测试、事务处理等等。创建函数修饰符的规则:(1)修饰符是一个函数(2)修饰符取被修饰函数为参数(3)修饰符返回一个新函数(4)修饰符维护被维护函数的签名例子1:被修饰函数不带参数def log(func): def wrapper(): print('log开始 ...') func() print('log结束 ...') return wrapper

2020-08-02 15:46:39 334

原创 余弦学习率

PyTorch torch.optim.lr_scheduler 学习率设置 调参 – CosineAnnealingLR

2020-08-01 10:20:23 2024

转载 SoftMax温度系数temperature parameter

深度学习中的temperature parameter是什么问题来源在google的论文《Sampling-Bias-Corrected Neural Modeling for Large Corpus Item Recommendations》中看到这个公式:对于这个t很好奇。 先简单介绍一下这篇论文,用双塔做推荐,左侧是user特征,右侧是item特征,然后通过DNN之后得到对应向量,再求向量内积得到一个数表示二者相关程度,计算出user和正类item和负类item的相关程度的数值之后,再通过s

2020-08-01 09:43:19 13989

转载 einsum爱因斯坦求和

https://zhuanlan.zhihu.com/p/74462893爱因斯坦求和约定(Einstein Notation)在数学中,爱因斯坦求和约定是一种标记法,也称为Einstein Summation Convention,在处理关于坐标的方程式时十分有效。简单来说,爱因斯坦求和就是简化掉求和式中的求和符号,即 [公式] ,这样就会使公式更加简洁,如Numpy是Python中的一个重要的科学计算库,支持大量的多维数组计算,并提供了大量的运算函数库。Numpy率先将爱因斯坦求和以扩展函数

2020-08-01 08:55:23 888

Xshell无法启动破解补丁

Xshell无法启动破解补丁:要继续使用此程序,您必须应用最新的更新或使用新版本。使用此补丁替换:复制此nslicense.dll替换源目录文件

2019-09-12

inception_resnet_v2_2016_08_30预训练模型

用于深度学习inception_resnet_v2网络的预训练模型ckpt文件。

2018-08-11

baidu_google_bing自动化图像爬虫脚本

用于深度学习图像数据集的构建,win端自动化图像爬虫程序。

2018-08-11

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除