自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(179)
  • 资源 (10)
  • 收藏
  • 关注

原创 nlp团队

https://www.cnblogs.com/aibabel/p/11780174.htmlhttps://blog.csdn.net/pony1001/article/details/97127246https://blog.csdn.net/wangxinginnlp/article/details/44890553https://blog.csdn.net/u011344545/article/details/93324454

2022-03-03 00:37:45 420

原创 pandas 存储list or tensor / pandas存储列表却变成字符串的解决办法

https://blog.csdn.net/yueyue_666/article/details/108381589

2022-02-11 00:59:24 1327

原创 交叉熵:pytorch版本 vs 日常版本

首先看下平时我们所说的交叉熵:传送门在信息论中,交叉熵可认为是对预测分布q(x)用真实分布p(x)来进行编码时所需要的信息量大小。而在机器学习的分类问题中,真实分布p(x)是one-hot形式,表明独属于one-hot中1对应的角标的那个类,因此这也是为什么交叉熵常用于做分类问题的损失函数。H(p,q)=∑xp(x)log⁡1q(x)=−∑xp(x)log⁡q(x)\begin{aligned} H(p, q) &=\sum_{x} p(x) \log \frac{1}{q(x)} \\ &a

2022-01-06 23:48:53 1133

原创 算法与数据结构总纲

算法与数据结构这一栏介绍的东西会比较杂:排序、递归、数组、链表、分治、二进制位运算、回溯、动态规划等等,这些加起来可能会让人分不清什么是算法、什么是数据结构,下面做个简要的介绍:在本栏目介绍中:分治、动态规划、回溯是解决一类问题的思想;递归是实现某种算法思想的形式or手段;排序算法、dfs、bfs等是具体的算法,不同的排序思想可能是不同的算法思想的具体实现;数组/链表是存储数据的方式,相关的blog也是为了熟练操作(可能有些相关的小算法)这种数据结构。当然,学过《算法》与《数据结构》区分这些很容易。

2021-12-05 22:11:41 617

原创 分治思想及实例

文章目录1.分治实现快排1.1 介绍1.2 代码2.分治求众数3.分治求最大、最小数4.分治法解决最近点对问题1.分治实现快排1.1 介绍1.2 代码/* 快速排序分治版本 *//* https://blog.csdn.net/u013948010/article/details/78690467 */ /*选取最右那个为主元,每轮排序时,小与主元的通过交换往前放,大于主元的通过交换放后边,最后for循环结束时通过最后一次交换将主元放过来*/#include <iostream

2021-12-05 22:02:57 1465

转载 微软无界鼠标(Mouse without Borders)安装及使用|多台电脑共用鼠标键盘

在办公中,我们经常会遇到这种场景,自己带着笔记本电脑外加公司配置的台式机。由于两台电脑,所以就需要搭配两套键盘鼠标。对于有限的办公桌面来说,显得杂乱和拥挤。对于这种情况,微软车库里有这么一个比较方便好用的工具微软无界鼠标(Mouse without Borders)本文就简单介绍一下这款软件的安装和使用。百度上有很多大神都做了详细的介绍。微软无界鼠标(Mouse without Borders)安装使用说明软件下载地址:微软无界鼠标一、下载软件点击软件下载地址,访问到微软车库下载页面。点击红色下载

2021-11-16 18:09:02 33424 2

原创 常见的采样方法

文章目录1. 概念2.采样2.1 均匀分布采样2.2 离散分布2.3 接受拒绝采样(Acceptance-Rejection sampling)2.4 MCMC(Markov Chain Monte Carlo)采样2.5 重要性抽样(Importance sampling)2.6 吉布斯采样(Gibbs)3.参考1. 概念在数学中,连续型随机变量的概率密度函数(在不至于混淆时可以简称为密度函数)是一个描述这个随机变量的输出值,在某个确定的取值点附近的可能性的函数。而随机变量的取值落在某个区域之内的概率

2021-11-05 21:36:52 4857

原创 AI顶会、期刊排名

https://xueqiu.com/6597170251/132727727

2021-10-31 12:06:53 502

原创 researcher_follow

科研之友:https://www.scholarmate.com/oauth/index

2021-10-26 18:46:08 112

原创 机器学习经典方法

文章目录1.线性回归1.1 什么是线性回归1.2 公式1.3 过拟合、欠拟合如何解决1.4 线性回归的输出y服从正态分布2.逻辑(斯谛)回归(logistic regression)2.1 什么是逻辑回归2.2 公式2.3 多分类2.4 逻辑回归的优点2.5 逻辑回归常用优化方法2.5.1 一阶方法2.5.2 二阶方法2.5.2.1 牛顿法2.5.2.2 拟牛顿法2.5 输入数据的特征为什么要进行离散化3.决策树3.1 分类决策树3.2 树的生成3.2.1 信息增益 - ID3:分类3.2.1.1 计算信息

2021-10-04 18:39:53 151

原创 排序~~~

文章目录1. 序言2.代码(均为升序)2.1 冒泡排序2.2 选排2.3 插排2.4 快排2.4 归并排序2.5 堆排序https://blog.csdn.net/xiaoxiaojie12321/article/details/813808341. 序言2.代码(均为升序)2.1 冒泡排序def maopao(arr): length = len(arr) for i in range(length): for j in range(1,length-i): if arr[j]

2021-09-22 00:58:37 132

原创 二进制位运算

1.序言2.例题1.减法实现除法https://leetcode-cn.com/problems/xoh6Oh/

2021-09-21 22:48:27 117

原创 数组(双头指针、二分查找、前缀和、滑动窗口)

1.序言介绍数组相关操作2.例题1.双头指针https://leetcode-cn.com/problems/diao-zheng-shu-zu-shun-xu-shi-qi-shu-wei-yu-ou-shu-qian-mian-lcof/https://leetcode-cn.com/problems/he-wei-sde-liang-ge-shu-zi-lcof/2.二分https://blog.csdn.net/weixin_43232955/article/details/10752

2021-09-20 19:28:53 159

原创 面经1-小米-所有考点都在统计学习书中

1.K近邻算法(KNN)以某个距离度量进行衡量,选出与输入x最近的k个点,然后对k个点进行多数投票,决定输入x的类别,本质上这是一种分类算法, 其关键要素有3个:k值的选择、距离度量以及分类决策的规则(多数投票法)2.朴素贝叶斯(naive bayes)朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法https://baike.baidu.com/item/%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF/4925905?fr=aladdin3.L

2021-09-11 18:37:06 185

原创 文本相似度

文本相似度计算复盘参考文献数据集及其评价指标介绍:https://blog.csdn.net/xixiaoyaoww/article/details/105460175模型评价指标:https://blog.csdn.net/u010420283/article/details/104994800ROC曲线和AUC面积理解:https://blog.csdn.net/program_developer/article/details/79946787语义相似度计算的各种指标:https://www

2021-08-12 19:41:06 241

原创 正则化(岭回归、lasso回归)、归一化、标准化、离散化、白化、权重、学习率

文章目录正则化、归一化、标准化、离散化、白化1.介绍2.L1、L2正则化2.1 为什么参数稀疏一定程度上会避免过拟合?(L1)2.2 为什么参数越小代表模型越可避免过拟合?(L2)2.3 L1使参数稀疏、L2使参数小的原因?3 权重衰减与L2的区别3.1 首先看下权重衰减是什么?3.2 然后L2为什么可以实现权重衰减?4. 学习率衰减5. 权重衰减和学习率衰减考虑正则化、归一化、标准化、离散化、白化https://www.bilibili.com/read/cv107129911.介绍正则化的本质可

2021-08-10 20:15:14 668

原创 embedding发展史

文章目录1.文本多类分类2.embedding2.1 离散型2.1.1 one-hot2.1.2 词袋2.1.3 TF-IDF2.1.4 n-gram2.2 分布型2.2.1 共现矩阵1.文本多类分类2.embedding2.1 离散型2.1.1 one-hot2.1.2 词袋2.1.3 TF-IDF2.1.4 n-gramn-gram介绍:https://zhuanlan.zhihu.com/p/32829048https://www.jianshu.com/p/c13b9

2021-08-10 08:49:50 364

原创 熵值~~~~

文章目录1.信息熵2.交叉熵3.相对熵1.信息熵在信息论中,熵(Entropy)是接收的每条消息中包含的信息的平均量。被称为信息熵、信源熵、平均自信息量。 这里,“消息”代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大)。若一个离散随机变量X的可能取值为X={x1,x2,⋯,xn},而对应的概率为pi=p(X=xi),则随机变量X的熵定义为:H(X)=−∑i=1np(xi)log⁡p(xi)H(X)=-\sum_{i=1}^{n} p

2021-08-10 08:39:13 208

原创 知识蒸馏 & label smooth

文章目录1.Knowledge distillation1.1概念1.2知识蒸馏原理为什么有用?1.3知识蒸馏的温度参数?1.4知识蒸馏的种类?1.5知识蒸馏的作用?1.6 知识蒸馏方法1.7online/自监督蒸馏2.label smooth2.1介绍2.2 label smooth + Knowledge distillation2.2.1论文贡献:2.2.2 Label smooth何时有用2.2.3 知识蒸馏与label smooth结合1.Knowledge distillation1.1概念

2021-08-10 08:32:14 306

原创 torch softmax计算出0,导致math.log报math domain error

文章目录1.torch softmax计算出0错误:2.解决办法:1.torch softmax计算出0错误:import torchentropy_softmax = torch.nn.Softmax(dim=0)t = torch.tensor([ 1.4588, 6.8605, -12.9596, 0.9334, 20.7457, -6.9825, 1.0430,35.1390, -5.0085, 11.4986, 14.0365, -24.9701, 9.1256, 15.3329,-

2021-06-02 20:44:05 917

原创 机器学习问答

文章目录1.为什么机器学习的训练数据和测试数据要服从相同分布?2.为什么假设数据服从独立同分布3.汉明距离和编辑距离4.数据平滑1.为什么机器学习的训练数据和测试数据要服从相同分布?通俗理解:机器学习就是利用当前获取到的信息(或数据)进行训练学习,用以对未来的数据进行预测、模拟。所以都是建立在历史数据之上,采用模型去拟合未来的数据。因此需要我们使用的历史数据具有总体的代表性,所以历史数据(训练数据)和测试数据要服从相同分布。原文链接:https://blog.csdn.net/Metal1/arti

2021-06-01 12:27:57 382

原创 dfs、回溯、递归

1.序言转自:https://blog.csdn.net/fengchi863/article/details/80086915递归是一种算法结构,回溯是一种算法思想一个递归就是在函数中调用函数本身来解决问题回溯就是通过不同的尝试来生成问题的解,有点类似于穷举,但是和穷举不同的是回溯会“剪枝”,意思就是对已经知道错误的结果没必要再枚举接下来的答案了,比如一个有序数列1,2,3,4,5,我要找和为5的所有集合,从前往后搜索我选了1,然后2,然后选3 的时候发现和已经大于预期,那么4,5肯定也不行,这就

2021-05-21 17:44:30 207

原创 链表~~~

1.序言一种数据结构2.例题1.两数相加https://leetcode-cn.com/problems/add-two-numbers/

2021-05-19 21:55:06 61

原创 贪心

1. 序言所谓贪心算法是指,在对问题求解时,总是做出在当前看来是最好的选择。也就是说,不从整体最优上加以考虑,它所做出的仅仅是在某种意义上的局部最优解。贪心算法没有固定的算法框架,算法设计的关键是贪心策略的选择。必须注意的是,贪心算法不是对所有问题都能得到整体最优解,选择的贪心策略必须具备无后效性(即某个状态以后的过程不会影响以前的状态,只与当前状态有关。)所以,对所采用的贪心策略一定要仔细分析其是否满足无后效性。证明每次的局部最优解必须在全局最优解序列中,否则不可能到达全局最优!一般判断贪心是否能

2021-05-11 20:19:24 89

原创 python 常用语法

1.排序1.1 介绍首先我们得知道python中的两个排序方法,一个是sorted,一个是sortsort()是列表内置的方法,没有返回值,是将列表排序,列表变化了sorted是全局内置的方法,有返回值,返回对可迭代序列排序后的新对象,但是原来的序列不变python的sorted()函数、列表的sort()方法,都是稳定的。即排序不改变相同元素的前后关系。entry=[1,3,2,5,4,6,7]print(entry.sort()) #Noneprint(entry) #[1, 2,

2021-04-08 11:31:43 577

原创 dp(动态规划)

1.序言分治法:问题可分解为规模逐渐减小的同类型子问题,子问题相互独立,不包含公告子问题dp:问题可分解为规模逐渐减小的同类型子问题,但分解得到的子问题很多都是重复的。即总大问题可以分解为二级子问题,三级子问题。。。其中二级子问题中的每个子问题都需要用到每个三级子问题的解,因此每个三级自问题只需要计算一次,把其结果保存,在需要的时候调用。dp:每个动态规划都从一个网格开始2.开始1.入门—01背包https://www.cnblogs.com/kkbill/p/12081172.html(推荐)

2021-04-07 17:41:36 378

转载 pytorch乘法以及广播机制

pytorch中的广播机制和numpy中的广播机制一样, 因为都是数组的广播机制两个维度不同的Tensor可以相乘, 示例a = torch.arange(0,6).reshape((6,))'''tensor([0, 1, 2, 3, 4, 5])shape: torch.Size([6])ndim: 1'''b = torch.arange(0,12).reshape((2,6))'''tensor([[ 0, 1, 2, 3, 4, 5], [ 6,

2021-03-17 19:53:47 2854

转载 python函数传值改变值

和其他语言不一样,传递参数的时候,python不允许程序员选择采用传值还是传引用。Python参数传递采用的是“传对象引用”的方式。实际上,这种方式相当于传值和传引用的一种综合。如果函数收到的是一个可变对象(比如字典或者列表)的引用,就能修改对象的原始值--相当于通过“传引用”来传递对象。如果函数收到的是一个不可变对象(比如数字、字符或者元组)的引用,就不能直接修改原始对象--相当于通过“传值’来传递对象。python一般内部赋值变量的话,都是传个引用变量,和C语言的传地址的概念差不多。可以用id(

2021-03-13 21:55:31 1372

原创 python for循环次数避坑

先看第一段代码:for i in range(5): print(i) if i==1: i=i-1 print("y")结果:01y234这段代码按理说应该成为死循环,可是并没有,for循环依旧只执行了5次。第二段代码:array=[3,4,5]for i in range(len(array)): array.append(i) print(i)print(array)结果:012[3, 4, 5,

2021-02-08 21:17:36 1315

原创 python画图(树形图)

1.turtle库画树形跳转2.graphviz跳转跳转3.matplotlib跳转4.pyecharts文档(不详细)树形图例子更改大小、比例、颜色等大小、背景色、配色主题使用手册

2021-01-03 10:52:12 8296

原创 强化学习介绍

https://www.sohu.com/a/237554606_297710https://zhuanlan.zhihu.com/p/42055115https://blog.csdn.net/hellocsz/article/details/80835542https://blog.csdn.net/qq_39388410/article/details/88795124

2020-12-30 00:04:17 100

原创 UnicodeDecodeError: ‘utf-8‘ codec can‘t decode byte 0xff in position 0: invalid start byte

UnicodeDecodeError: ‘utf-8’ codec can’t decode byte 0xff in position 0: invalid start byte报错代码:df=pd.read_csv("./ttt.txt",sep=",",encoding=“utf-8”)解决办法就是将文档编码转为utf8,下面尝试了两种解决办法!解决办法一(失败):解决办法二(成功):用Notepad++打开,然后转为utf-8编码,这样转是成功的。参考:https://blog.csdn

2020-12-29 14:13:41 487

原创 pytorch lstm+attention

原生:https://www.cnblogs.com/cxq1126/p/13504437.htmlhttps://zhuanlan.zhihu.com/p/62486641https://blog.csdn.net/qsmx666/article/details/107118550?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1.control&depth_1-utm_source=distrib

2020-12-10 22:56:58 1174 1

原创 pytorch 常见报错

文章目录1.RuntimeError: cuda runtime error (59) : device-side assert triggered2.CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`3.pytorch BrokenPipeError: [Errno 32] Broken pipe1.RuntimeError: cuda runtime error (59) : device-side as

2020-12-08 11:12:10 465

原创 pytorch tensor的基本函数

交换tensor维度:torch.Tensor.permute (Python method, in torch.Tensor)https://zhuanlan.zhihu.com/p/76583143https://blog.csdn.net/york1996/article/details/81876886tensor初始化(均匀分布、正态分布。。。):torch.nn.inithttps://blog.csdn.net/dss_dssssd/article/details/83959474t

2020-12-05 00:37:59 344

原创 深度主动学习综述2020

《A Survey of Deep Active Learning》三篇译文:https://zhuanlan.zhihu.com/p/218011458https://www.sohu.com/a/420778540_100007727https://blog.csdn.net/weixin_45798949/article/details/108842951

2020-11-30 16:52:00 222

原创 transformers-bert

https://blog.csdn.net/abcdefg90876/article/details/104725943/https://panchuangai.blog.csdn.net/article/details/104920315?utm_medium=distribute.pc_relevant.none-task-blog-searchFromBaidu-2.control&depth_1-utm_source=distribute.pc_relevant.none-task-blo

2020-11-30 15:05:57 116

原创 归一化(Normalization)和标准化(Standardization)

"标准化"和"归一化"这两个中文词要指代四种Feature scaling(特征缩放)方法:1.缩放到均值为0,方差为1(Standardization——StandardScaler())2.缩放到0和1之间(Standardization——MinMaxScaler())3.缩放到-1和1之间(Standardization——MaxAbsScaler())4.缩放到0和1之间,保留原始数据的分布(Normalization——Normalizer())由于中文翻译,网上对于归一化和正则化的定

2020-11-29 16:02:21 1141

原创 focal loss

文章目录1.综述2.理解3.公式3.1 二分类的focal loss公式3.2 多分类下的focal loss公式3.3 二分类到多分类(含代码,代码是根据4.1.1、4.2.1、4.2.3 演变的)3.3.1 二分类3.3.2 多分类4.代码4.1 二分类4.1.1 实现代码14.1.2 实现代码24.2 多分类4.2.1 版本14.2.2 版本1的另一种写法4.2.3 版本24.3 alpha值的确定4.3.1 根据个数确定4.3.2 根据范围确定5.参考1.综述Focal loss主要是为了解决o

2020-11-20 21:57:14 1903 1

原创 python之argparse模块

文章目录1.介绍2.步骤2.1 argparse.ArgumentParser()2.2 .add_argument()2.3 .parse_args()2.4 命令行使用3.参考1.介绍argparse 是 Python 内置的一个用于命令项选项与参数解析的模块,通过在程序中定义好我们需要的参数,argparse 将会从 sys.argv 中解析出这些参数,并自动生成帮助和使用信息。当然,Python 也有第三方的库可用于命令行解析,而且功能也更加强大,比如 docopt,Click。2.步骤三个

2020-11-17 17:03:19 256

GoogleNews-vectors-negative300.bin

英文的词向量 GoogleNews-vectors-negative300.bin网盘 GoogleNews-vectors-negative300.bin网盘

2020-09-03

sgns.sogounews.bigram-char.pt

sgns.sogounews.bigram-char.pt sgns.sogounews.bigram-char.pt

2020-08-02

sgns.sogounews.bigram-char

sgns.sogounews.bigram-char sgns.sogounews.bigram-char

2020-08-02

Filezilla.7z

本地与服务器传文件所需!

2020-04-20

routesDemo.7z

对应https://blog.csdn.net/qq_34405401/article/details/104516502的2.6

2020-03-26

多分类_MvM_ecoc.pdf

二元EOOC码的介绍及编写!

2020-03-16

day10_data.zip

day10:https://blog.csdn.net/qq_34405401/article/details/104708471 day10:https://blog.csdn.net/qq_34405401/article/details/104708471 day10:https://blog.csdn.net/qq_34405401/article/details/104708471 day10:https://blog.csdn.net/qq_34405401/article/details/104708471

2020-03-07

项目实训day8

项目实训day8!

2020-03-04

机器学习介绍.zip

https://blog.csdn.net/qq_34405401/article/details/104634161

2020-03-03

作业_day3.zip

简单QT+简单requests爬虫实现!

2020-02-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除