python
python
努力学习,努力爱你!
这个作者很懒,什么都没留下…
展开
-
生成对抗网络(GAN)
他不是用来把数据对应上结果的, 而是用来”凭空”捏造结果, 这就是我们要说的生成网络啦. GAN 就是其中的一种形式. 那么 GAN 是怎么做到的呢?当然这里的”凭空”并不是什么都没有的空盒子, 而是一些随机数.如有问题,欢迎指正!原创 2022-10-20 16:37:51 · 127 阅读 · 0 评论 -
DQN 强化学习
强化学习(Reinforcement Learning, RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。如有问题,欢迎指正!原创 2022-10-20 14:17:16 · 307 阅读 · 0 评论 -
自编码器 非监督学习
有时神经网络要接受大量的输入信息, 何不压缩一下, 提取出原图片中的最具代表性的信息, 缩减输入信息量, 再把缩减过后的信息放进神经网络学习. . 所以, 自编码就能在这时发挥作用. 通过将原数据白色的X 压缩, 解压 成黑色的X, 然后通过对比黑白 X ,求出预测误差, 进行反向传递, 逐步提升自编码的准确性. 训练好的自编码中间这一部分就是能总结原数据的精髓.编码器能得到原数据的精髓, 然后我们只需要再创建一个小的神经网络学习这个精髓的数据,不仅减少了神经网络的负担, 而且同样能达到很好的效果.原创 2022-10-20 12:55:48 · 319 阅读 · 0 评论 -
RNN循环神经网络
LSTM 就像延缓记忆衰退的良药, 可以带来更好的结果. 普通的RNN容易健忘。RNN就会把之前的记忆都累积起来, 一起分析.如有问题,欢迎指正!原创 2022-10-20 10:38:55 · 104 阅读 · 0 评论 -
CNN卷积神经网络
在每一次卷积的时候, 神经层可能会无意地丢失一些信息. 这时, 池化 (pooling) 就可以很好地解决这一问题. 而且池化是一个筛选过滤的过程, 能将 layer 中有用的信息筛选出来, 给下一个层分析。当神经网络需要处理这么多输入信息的时候, 也就是卷积神经网络就可以发挥它的优势的时候了。卷积神经网络目前被广泛地用在图片识别上, 已经有层出不穷的应用。如有问题,欢迎指正!原创 2022-10-20 09:02:53 · 204 阅读 · 0 评论 -
比较神经网络的优化器
如有问题,欢迎指正!原创 2022-10-19 21:45:34 · 83 阅读 · 0 评论 -
快速搭建神经网络
激励函数实际上是在 forward() 功能中才被调用的 也就是说可以控制向前传播。如有问题,欢迎指正!原创 2022-10-19 19:50:10 · 331 阅读 · 0 评论 -
pytorch线性回归
使用平方损失来衡量预测值和真是值得差异。线性回归是对n维输入的加权,外加偏差。线性回归可以看做是单层神经网络。如有问题,欢迎指正!原创 2022-09-18 16:32:36 · 311 阅读 · 0 评论 -
pytorch线性代数的基本操作
如有问题,欢迎指正!原创 2022-09-18 13:08:51 · 812 阅读 · 0 评论 -
pytorch数据的基本操作
如有问题,欢迎指正!原创 2022-09-17 16:12:26 · 536 阅读 · 0 评论