努力的小硬币
码龄7年
关注
提问 私信
  • 博客:7,531
    7,531
    总访问量
  • 13
    原创
  • 2,383,251
    排名
  • 2
    粉丝
  • 0
    铁粉

个人简介:菜鸟开始飞

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:贵州省
  • 加入CSDN时间: 2017-10-28
博客简介:

努力的小硬币

查看详细资料
个人成就
  • 获得7次点赞
  • 内容获得0次评论
  • 获得20次收藏
创作历程
  • 16篇
    2019年
成就勋章
TA的专栏
  • pytorch学习
  • 机器学习
    9篇
  • JAVA学习初级
    4篇
  • Python
    3篇
创作活动更多

新星杯·14天创作挑战营·第9期

这是一个以写作博客为目的的创作活动,旨在鼓励大学生博主们挖掘自己的创作潜能,展现自己的写作才华。如果你是一位热爱写作的、想要展现自己创作才华的小伙伴,那么,快来参加吧!我们一起发掘写作的魅力,书写出属于我们的故事。我们诚挚邀请你们参加为期14天的创作挑战赛! 注: 1、参赛者可以进入活动群进行交流、分享创作心得,互相鼓励与支持(开卷),答疑及活动群请见 https://bbs.csdn.net/topics/619626357 2、文章质量分查询:https://www.csdn.net/qc

475人参与 去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

python学习线路

原创
发布博客 2019.05.08 ·
206 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

linux入门--实验楼

加粗样式加粗样式另一个实验:用户:lilei密码:lilei
原创
发布博客 2019.05.08 ·
184 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Python学习路线--实验楼

https://www.zhihu.com/question/302640402
原创
发布博客 2019.05.08 ·
162 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

tensorflow人工智能学习视频,基于Python玩转人工智能

发布资源 2019.04.28 ·
txt

java初级——类和对象

一、封装,继承和多态继承就是可以直接使用前辈的属性和方法。1*创建类中的set和getalt+shift+S,然后选择Generate Getters and Setters变量和方法都可以使用修饰符默认是protected修饰符类的修饰符会限定类中成员变量以及方法的属性,上图类为默认的protected,智能在包内使用,即使方法doString是public修饰的,但是方法...
原创
发布博客 2019.04.10 ·
178 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

java初级——排序

一、冒泡排序只需要比较arr-1轮,因此从i=1开始!二、直接排序简单来说就是:(最大直接排序)定义一个下标index,将此下标数组值与其他数组值全部比较大小,...
原创
发布博客 2019.04.08 ·
93 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

java初级——函数

一、String和StringBuilderstring只能赋值一次,每一次内容发生改变,都会生成一个新的对象。StringBuilder类则不同,每次操作都是对自身对象进行操作,而不是生成新的对象二、数组遍历之foreach二维数组采用foreach遍历结果为:2 14 8 6...
原创
发布博客 2019.04.08 ·
123 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

JAVA学习初级——eclipse快捷键

1. ctrl+shift+r:打开资源这可能是所有快捷键组合中最省时间的了。这组快捷键可以让你打开你的工作区中任何一个文件,而你只需要按下文件名或mask名中的前几个字母,比如applic*.xml。美中不足的是这组快捷键并非在所有视图下都能用。2. ctrl+o:快速outline如果想要查看当前类的方法或某个特定方法,但又不想把代码拉上拉下,也不想使用查找功能的话,就用ctrl+o吧...
转载
发布博客 2019.04.04 ·
156 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

机器学习之RNN与LSTM

来自知乎的转载https://zhuanlan.zhihu.com/p/29927638讲得很清楚!!!
转载
发布博客 2019.03.22 ·
219 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习(1)deep learning

刚刚开始学习机器学习,有很多不懂的东西,也是刚刚开始写博客,主要是想记录自己学习的点点滴滴!现在学习的是台湾大学李弘毅的机器学习,在学习视频,可能要多看两遍才能都体会消化这些知识!1.Deep learning只是把原来的非Deep learning问题中的寻找feature的问题转化为寻找一个神经网络结构的问题。只是看哪一种方法解决问题比较方便。2. sigmod function已经比...
原创
发布博客 2019.03.22 ·
121 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习之softmax和cross-entropy

参考来源https://blog.csdn.net/haolexiao/article/details/72757796定义所以softmax函数所表示的可以看成为对分类结果的概率分布。softmax可以看成对概率分布的一个刻画,所以既然有概率分布,就可以用cross-entropy来定义损失函数...
翻译
发布博客 2019.03.22 ·
783 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

机器学习之why deep?

模块化:使用模块化,使用的数据是可以比较少的如下图,分类中,男生长发的数据是比较少的,那么就模块化!如下图,模块化,先基本分类,男生和女生;长发和短发。半监督学习:为什么需要半监督学习?我们需要data,但是有用的数据是比较少的,会讲下面4个内容一、半监督学习在Generative Model这部分内容应该用不上。。。先忽略掉好了二、半监督学习之self-training...
原创
发布博客 2019.03.21 ·
253 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习-梯度下降

以下内容学习来自台湾大学李弘毅的机器学习讲解,以及其他博客的理解。1.梯度梯度就是函数变化增加最快的地方,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。沿着梯度向量相反的方向,也就是 -(∂f/∂x0, ∂f/∂y0)T的方向,梯度减少最快,也就是更加容易找到函数的最小值。2.梯度下降之adagrad在机器学习算法中,在最小化损失函数时,可以通过梯度下...
原创
发布博客 2019.03.19 ·
186 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习-mini batch的一些tips

以下内容来自博客理解!1.参数更新将 5000 个子集都计算完时,就是进行了一个 epoch 处理 ,一个 epoch 意思是遍历整个数据集,即 5000 个子数据集一次,也就是做了 5000 个梯度下降,如果需要做多次遍历,就需要对 epoch 进行循环。当数据集很大的时候,这个方法是经常被使用的。2.如何选择 mini batch 的参数 batch size 呢?如果训练集较小,一...
原创
发布博客 2019.03.19 ·
516 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习-tips for DNN

1.在training之后,如果发现training结果不太好,那么就应该回头看那三步,看修改哪一步2.如果在training结果上比较好,但是在testing上结果不好,那就overfitting了。也要回去修改前三步。3.上图,横轴是training次数。看到testing error,56层比20层error大,但是这不是overfitting,因为我们看到training ...
原创
发布博客 2019.03.19 ·
205 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习之正则化(L1、L2以及Early Stopping、Dropout)

正则化Regularization正则化方法:防止过拟合,提高泛化能力training data少的时候,或者overtraining时,常常会导致overfitting(过拟合)(即在training上的结果好,但是在testing上的结果却很差)。通常我们会将数据集分为training data、validation data、testing data如下图,一般取得最好的train...
原创
发布博客 2019.03.19 ·
1611 阅读 ·
3 点赞 ·
0 评论 ·
5 收藏

机器学习之CNN

CNN–Convolutional NN(卷积神经网络)CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。如下图是CNN的流程下面是CNN的三个特点:1.CNN针对的是某些特征,而不是整个图片的所有特征2.CNN的相同的特征可以是出现在图片的不同的区域3.CNN对图片减少像素是不会影响图片的下面讲一下卷积Convolution:下图...
原创
发布博客 2019.03.19 ·
2535 阅读 ·
2 点赞 ·
0 评论 ·
10 收藏
加载更多