- 博客(14)
- 收藏
- 关注
原创 小样本语义分割的问题
当前的小样本分割方法,基本上都是想法设法地利用support。比如提出一个更好的匹配机制或生成有代表性的原型。这些方法因为support数量过小的原因,都不能从根本解决同类目标外观差异很大的问题。
2022-10-29 23:11:26 264
原创 windows下载 pycocotools失败
ERROR: Could not build wheels for pycocotools, which is required to install pyproject.toml-based projects
2022-10-15 20:09:10 336
原创 深度学习--模型优化技巧
Tips for Deep Learning本文会顺带解决CNN部分的两个问题:1、max pooling架构中用到的max无法微分,那在gradient descent的时候该如何处理?2、L1 的Regression到底是什么东西本文的主要思路:针对training set和testing set上的performance分别提出针对性的解决方法1、在training set上准确率不高:new activation function:ReLU、Maxoutadaptive learni
2020-06-10 09:05:41 962
原创 深度学习--卷积神经网络精讲、深入浅出
Convolutional Neural network(part 1)CNN常常被用在影像处理上,它的theory base就是三个property,和两个架构convolution 架构:针对property 1和property 2max pooling架构:针对property 3Why CNN for Image?CNN V.s. DNN我们当然可以用一般的neural network来做影像处理,不一定要用CNN,比如说,你想要做图像的分类,那你就去train一个neural n
2020-06-08 09:44:47 1449
原创 深度学习--反向传播
BackpropagationBackpropagation(反向传播),就是告诉我们用gradient descent来train一个neural network的时候该怎么做,它只是求微分的一种方法,而不是一种新的算法Gradient Descentgradient descent的使用方法,跟前面讲到的linear Regression或者是Logistic Regression是一模一样的,唯一的区别就在于当它用在neural network的时候,network parameters θ
2020-06-07 15:14:57 203
原创 深度学习--概念初探
Deep LearningUps and downs of Deep Learning1958:Perceptron(linear model),感知机的提出和Logistic Regression类似,只是少了sigmoid的部分1969:Perceptron has limitation,from MIT1980s:Multi-layer Perceptron,多层感知机和今天的DNN很像1986:Backpropagation,反向传播Hinton propose的Ba
2020-06-06 13:01:03 447
原创 机器学习基础--逻辑回归(Logistic Regression)
Logistic RegressionReview在classification这一章节,我们讨论了如何通过样本点的均值uuu和协方差Σ\SigmaΣ来计算P(C1),P(C2),P(x∣C1),P(x∣C2)P(C_1),P(C_2),P(x|C_1),P(x|C_2)P(C1),P(C2),P(x∣C1),P(x∣C2),进而利用P(C1∣x)=P(C1)P(x∣C1)P(C1)P(x∣C1)+P(C2)P(x∣C2)P(C_1|x)=\frac{P(C_1)P(x|C_1)}{P(C_1)
2020-06-05 11:42:15 374
原创 机器学习基础--分类(概率生成模型)
Classification: Probabilistic Generative ModelClassification概念描述分类问题是找一个function,它的input是一个object,它的输出是这个object属于哪一个class还是以宝可梦为例,已知宝可梦有18种属性,现在要解决的分类问题就是做一个宝可梦种类的分类器,我们要找一个function,这个function的input是某一只宝可梦,它的output就是这只宝可梦属于这18类别中的哪一个type输入数值化对于宝可梦的分
2020-06-04 11:01:34 906 1
原创 机器学习基础--梯度下降(Gradient Descent)
Gradient DescentReview前面预测宝可梦cp值的例子里,已经初步介绍了Gradient Descent的用法:In step 3, we have to solve the following optimization problem:θ∗=argminθL(θ)\theta^{*}=\arg \underset{\theta}{\min} L(\theta) \quadθ∗=argθminL(θ)L : loss functionθ:\theta:θ: paramet
2020-06-03 22:58:07 434
原创 机器学习基础--误差分析和处理
Where does the error come from?Review之前有提到说,不同的function set,也就是不同的model,它对应的error是不同的;越复杂的model,也许performance会越差,所以今天要讨论的问题是,这个error来自什么地方error due to biaserror due to variance了解error的来源其实是很重要的,因为我们可以针对它挑选适当的方法来improve自己的model,提高model的准确率,而不会毫无头绪#
2020-06-02 16:54:39 835
原创 机器学习基础--回归(Regression)
Regression:Case Study回归-案例研究问题的导入:预测宝可梦的CP值Estimating the Combat Power(CP) of a pokemon after evolution我们期望根据已有的宝可梦进化前后的信息,来预测某只宝可梦进化后的cp值的大小确定Senario、Task和ModelSenario首先根据已有的data来确定Senario,我们拥有宝可梦进化前后cp值的这样一笔数据,input是进化前的宝可梦(包括它的各种属性),output是进化后的
2020-05-23 20:47:43 844
原创 机器学习基础--概念初探
机器学习入门概念知无不言,言无不尽。希望本文能对你有帮助!Supervised Learning(监督学习)supervised learning 需要大量的training data,这些training data告诉我们说,一个我们要找的function,它的input和output之间有什么样的关系而这种function的output,通常被叫做label(标签),也就是说,我们要使用supervised learning这样一种技术,我们需要告诉机器,function的input和outpu
2020-05-22 14:35:56 264 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人