自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 Image.FLIP_LEFT_RIGHT将被弃用

Image.FLIP_LEFT_RIGHT将被弃用

2022-11-02 19:39:44 1347 1

原创 小样本语义分割的问题

当前的小样本分割方法,基本上都是想法设法地利用support。比如提出一个更好的匹配机制或生成有代表性的原型。这些方法因为support数量过小的原因,都不能从根本解决同类目标外观差异很大的问题。

2022-10-29 23:11:26 252

原创 windows下载 pycocotools失败

ERROR: Could not build wheels for pycocotools, which is required to install pyproject.toml-based projects

2022-10-15 20:09:10 330

原创 pycharm打开其他window

pycharm打开其他window

2022-06-20 15:04:48 163

原创 深度学习--模型优化技巧

Tips for Deep Learning本文会顺带解决CNN部分的两个问题:1、max pooling架构中用到的max无法微分,那在gradient descent的时候该如何处理?2、L1 的Regression到底是什么东西本文的主要思路:针对training set和testing set上的performance分别提出针对性的解决方法1、在training set上准确率不高:new activation function:ReLU、Maxoutadaptive learni

2020-06-10 09:05:41 946

原创 深度学习--卷积神经网络精讲、深入浅出

Convolutional Neural network(part 1)CNN常常被用在影像处理上,它的theory base就是三个property,和两个架构convolution 架构:针对property 1和property 2max pooling架构:针对property 3Why CNN for Image?CNN V.s. DNN我们当然可以用一般的neural network来做影像处理,不一定要用CNN,比如说,你想要做图像的分类,那你就去train一个neural n

2020-06-08 09:44:47 1435

原创 深度学习--反向传播

BackpropagationBackpropagation(反向传播),就是告诉我们用gradient descent来train一个neural network的时候该怎么做,它只是求微分的一种方法,而不是一种新的算法Gradient Descentgradient descent的使用方法,跟前面讲到的linear Regression或者是Logistic Regression是一模一样的,唯一的区别就在于当它用在neural network的时候,network parameters θ

2020-06-07 15:14:57 194

原创 深度学习--概念初探

Deep LearningUps and downs of Deep Learning1958:Perceptron(linear model),感知机的提出和Logistic Regression类似,只是少了sigmoid的部分1969:Perceptron has limitation,from MIT1980s:Multi-layer Perceptron,多层感知机和今天的DNN很像1986:Backpropagation,反向传播Hinton propose的Ba

2020-06-06 13:01:03 442

原创 机器学习基础--逻辑回归(Logistic Regression)

Logistic RegressionReview在classification这一章节,我们讨论了如何通过样本点的均值uuu和协方差Σ\SigmaΣ来计算P(C1),P(C2),P(x∣C1),P(x∣C2)P(C_1),P(C_2),P(x|C_1),P(x|C_2)P(C1​),P(C2​),P(x∣C1​),P(x∣C2​),进而利用P(C1∣x)=P(C1)P(x∣C1)P(C1)P(x∣C1)+P(C2)P(x∣C2)P(C_1|x)=\frac{P(C_1)P(x|C_1)}{P(C_1)

2020-06-05 11:42:15 365

原创 机器学习基础--分类(概率生成模型)

Classification: Probabilistic Generative ModelClassification概念描述分类问题是找一个function,它的input是一个object,它的输出是这个object属于哪一个class还是以宝可梦为例,已知宝可梦有18种属性,现在要解决的分类问题就是做一个宝可梦种类的分类器,我们要找一个function,这个function的input是某一只宝可梦,它的output就是这只宝可梦属于这18类别中的哪一个type输入数值化对于宝可梦的分

2020-06-04 11:01:34 890 1

原创 机器学习基础--梯度下降(Gradient Descent)

Gradient DescentReview前面预测宝可梦cp值的例子里,已经初步介绍了Gradient Descent的用法:In step 3,​ we have to solve the following optimization problem:θ∗=arg⁡min⁡θL(θ)\theta^{*}=\arg \underset{\theta}{\min} L(\theta) \quadθ∗=argθmin​L(θ)L : loss functionθ:\theta:θ: paramet

2020-06-03 22:58:07 421

原创 机器学习基础--误差分析和处理

Where does the error come from?Review之前有提到说,不同的function set,也就是不同的model,它对应的error是不同的;越复杂的model,也许performance会越差,所以今天要讨论的问题是,这个error来自什么地方error due to biaserror due to variance了解error的来源其实是很重要的,因为我们可以针对它挑选适当的方法来improve自己的model,提高model的准确率,而不会毫无头绪#

2020-06-02 16:54:39 802

原创 机器学习基础--回归(Regression)

Regression:Case Study回归-案例研究问题的导入:预测宝可梦的CP值Estimating the Combat Power(CP) of a pokemon after evolution我们期望根据已有的宝可梦进化前后的信息,来预测某只宝可梦进化后的cp值的大小确定Senario、Task和ModelSenario首先根据已有的data来确定Senario,我们拥有宝可梦进化前后cp值的这样一笔数据,input是进化前的宝可梦(包括它的各种属性),output是进化后的

2020-05-23 20:47:43 835

原创 机器学习基础--概念初探

机器学习入门概念知无不言,言无不尽。希望本文能对你有帮助!Supervised Learning(监督学习)supervised learning 需要大量的training data,这些training data告诉我们说,一个我们要找的function,它的input和output之间有什么样的关系而这种function的output,通常被叫做label(标签),也就是说,我们要使用supervised learning这样一种技术,我们需要告诉机器,function的input和outpu

2020-05-22 14:35:56 246 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除