![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 79
阿猫的自拍
这个作者很懒,什么都没留下…
展开
-
和keras一起的,有pytorch味道的Tensorflow2.0 继续学习
上面一章我们已经了解了tensorflow2.0的基础了,接下来我们将用Tensorflow2.0来做一个模型,来看看一个基本的部分处理1.还有TF的官方微信公众号的文章2.参考连接2TF部分#数据class MNISTLoader():def __init__(self): mnist = tf.keras.datasets.mnist (self.train_dat...原创 2020-01-04 18:05:30 · 210 阅读 · 0 评论 -
有pytorch味道的Tensorflow2.0 基础学习
代码参考自: Tensorflow官方微信公众号1.Tensorflow下用都是tf 写的格式,数据也是,所以如果来自pytorch的话需要转化一下,比如:可以运行cons_tensor = tf.constant([[1,2],[3,4]],dtype=tf.int32)不可以运行cons_tensor = tf.constant([[1,2],[3,4]],dtype=int32...原创 2020-01-04 12:31:48 · 255 阅读 · 0 评论 -
Tensorflow serving keras转哦--- 一键部署和并发测试进阶记录
实现一键布署:1.一键安装全部环境,上一篇文章说了基本的操作 《keras模型的布署在Tensorflow serving — 基础记录》,那么我们是否要手把手自己去安装呢?如果对方使用你的东西,但是不是很熟悉我们是否可以辅助安装,是肯定的,我们可以写一个sh文件,也就是.sh脚本文件参考链接1参考链接22.docker-compse 一键部署:tensorflow-serving和we...原创 2020-01-02 16:51:33 · 1145 阅读 · 3 评论 -
2080ti,驱动安装,CUDA安装,CUDNN安装,CUDA10.1的不兼容问题
conda listconda search tensorflow-gpuconda install tensorflow-gpu==1.13.1原创 2019-11-19 10:46:12 · 1469 阅读 · 0 评论 -
Inception的个人总结
参考链接:参考链接1,机器之心的观点参考链接21.Inception模块:使用了 Inception 模块,它的目的是设计一种具有优良局部拓扑结构的网络,即对输入图像并行地执行多个卷积运算或池化操作,并将所有输出结果拼接为一个非常深的特征图。因为 11、33 或 5*5 等不同的卷积运算与池化操作可以获得输入图像的不同信息,并行处理这些运算并结合所有结果将获得更好的图像表征。这么看resn...原创 2019-10-09 00:10:35 · 446 阅读 · 0 评论 -
卷积神经网络的感受野思考
在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通过sliding filter)。神经元感受野的值越大表示其能接触到的原始图像范围就越大,也意味着他可能蕴含更为全局、语义层次更高的特征;而值越小则表示其所包...原创 2019-10-08 21:07:30 · 136 阅读 · 0 评论 -
阿猫目前遇到的损失函数们
1.目标检测:分类问题的话:二元交叉熵损失函数(逻辑回归)(绝对)和多元交叉商损失函数(Softmax)(相对)回归问题的话:MSEL1损失函数, MAEL2损失函数, Smooth L1损失函数(前两者的结合鲁棒性更好)据了解BCE也有用到回归中,比如YOLOv3的中心位置回归。类别不平很的:二元交叉商损失函数的升级版本focal loss2.行人检测和人脸识别:Tripletloss,...原创 2019-09-29 22:43:46 · 118 阅读 · 0 评论 -
阿猫的激活函数
激活函数: sigmoid, tanh, relu,softmax,relu变形激活函数的考虑基本上要考虑他的导数,除了前向传播的特点,也要考虑到他反向传播带来的问题和优点。所以考虑激活函数也是考察我们对梯度下降的理解。sigmoid:用于二分类,逻辑回归的激活函数sigmoid函数也称为Logistic函数,因为Sigmoid函数可以从Logistic回归(LR)中推理得到,也是LR模型指...原创 2019-09-29 20:11:55 · 111 阅读 · 0 评论 -
阿武带着阿猫,深入再看看tripletloss
triplet loss先计算距离,然后获得AP和NAP,然后用pytorch的nn.MarginRankingLoss实现损失函数,这样一来就不需要自己去写反向传播了。通过这个loss我们可以判断模型的输出结果是准确还是错误的,比如ap>an 最远的同类大于最近的非同类,那么就是对的,ap<an 最远的同类小于最近的非同类那么就是错的。复现的细节:今天在看triplet l...原创 2019-09-27 17:36:53 · 278 阅读 · 0 评论 -
dropout层的进一步理解和实现
为什么使用dropout 以及好处:https://blog.csdn.net/stdcoutzyx/article/details/49022443传统化 Dropout 和 现代化 Inverted Dropout1.在训练阶段,对应用了dropout的层,每个神经元以keep_prob的概率保留(或以1-keep_prob的概率关闭),然后在测试阶段,不执行dropout,也就是所有神...原创 2019-09-22 00:29:58 · 1206 阅读 · 0 评论 -
sigmoid 和 softmax,BCE与CE loss function
一句话概括sigmoid 激活函数 二分类的激活函数 解决我是和不是的问题 对应二元交叉熵损失函数softmax 激活函数 多分类的激活函数 解决我们中哪个是的问题 对应多元交叉熵损失函数二分类推导为什么用交叉商:梯度下降的角度:从下面的推导过程可以看出来sigmoid对应的交叉商最后的梯度是一种残差。mse 是高斯分布的最大似然,二CE是多项式分布的最大似然。https://zhuan...原创 2019-09-15 14:54:04 · 9275 阅读 · 1 评论 -
xgboost原理学习 -----深度学习和机器学习的联系
笔记整理和思考补充,参考链接: https://www.zhihu.com/question/58883125/answer/206813653模型:上面其实讲的非常好,特别是logistics 模型,熟悉的都知道logisitcs模型中的softmax就是讲输出的数值映射到两端,进而进一步的进行分类。所以比如一个手写识别的深度学习模型,一般前面是卷积层然后接上全连接层,全连接层将特征们映射...原创 2019-08-13 17:07:32 · 1338 阅读 · 0 评论 -
模型训练与测试---机器学习的优化方法GBDT
gbdt:梯度提升决策树。通过加法模型(即基函数的线性组合),以及不断减小训练过程中产生的残差来达到数据分类或者回归的算法。不管减少残差的过程,其实和深度学习的不断减少损失函数的过程是一致的。gbdt的训练过程:通过多轮的迭代,每轮迭代产生一个弱分类器,而每个分类器在上一轮分类器的残差基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏差来不断提...原创 2019-08-13 15:13:31 · 1420 阅读 · 0 评论 -
Faster RCNN 的问题总结2
1.ModuleNotFoundError: No module named ‘roi_pooling_op’把’import roi_pooling_op’改成 ‘import roi_pooling_layer.roi_pooling_op’2.ModuleNotFoundError: No module named ‘generate_anchors’3.NameError: name...原创 2019-02-12 20:15:57 · 1758 阅读 · 6 评论