机器学习
goes_on
本科数学(信息与计算科学)专业,跨专业保研到人工智能,记录自己的研究学习!有学人工智能或者数学的朋友,加[钉钉群](https://qr.dingtalk.com/action/joingroup?code=v1,k1,Q7I6j13RBWrNcdFZW+CR+LnNuHI2najnkDW6our7Wms=&_dt_no_comment=1&origin=11)交流学习,共同进步!
展开
-
Tensorflow_2 Tutorials TF2 入门-Tensor
张量及其操作Tensor的创建从numpy创建import tensorflow as tfimport numpy as npif __name__ == '__main__': x = np.ones([1, 2], dtype=np.float) X = tf.convert_to_tensor(x, dtype=tf.float32) print(X) # tf.Tensor([1. 1.], shape=(2,), dtype=float32)从pyth原创 2020-11-21 11:31:58 · 165 阅读 · 0 评论 -
压缩感知理论,我来补基础了!
目录压缩感知压缩感知的主要应用为什么选择压缩感知压缩感知是什么信号采样奈奎斯特采样定理压缩感知采样与奈奎斯特采样的差别压缩感知的格式ϕ\phiϕ的要求压缩感知与ISTALASSO问题优化形式压缩感知压缩感知的主要应用目前压缩感知主要应用再无线信号通信,核磁共振成像,雷达成像,信息采集,超分辨率图像重构等领域为什么选择压缩感知压缩感知提供了一个新的采样理论,通过对信号稀疏性的开发,在远小于奈奎斯特采样率的条件下,通过随机采样得到的样本通过非线性重建可以完美还原(重建)信号。压缩感知方法抛弃原创 2020-11-14 20:37:58 · 834 阅读 · 0 评论 -
Pytorch框架学习 -3 pytorch损失函数
文章目录Pytorch框架学习 -3 pytorch损失函数前置无参数损失函数定义初始化方法这估计是最友好的pytorch基类了吧!一个实现的例子L1范数损失L1损失函数其他的损失函数类都类似这样实现的欣赏一下吧!其他的损失函数本体也都长得差不多,再实现的欣赏一下吧!有参数损失函数Pytorch框架学习 -3 pytorch损失函数前置nn.Module 简单分析无参数损失函数定义class _Loss(Module): reduction: strpytorch设计是真的强,我原本原创 2020-10-16 20:02:36 · 577 阅读 · 0 评论 -
Pytorch的内置模型 #2 卷积模型
文章目录Pytorch的内置模型 #2 卷积模型前置卷积基类类定义初始化函数实现继承判断输入参数合法性是否转置是否有偏置参数初始化reset_parameters方法extra_repr方法卷积实现类三个卷积实现类以Conv1d为例分析Pytorch的内置模型 #2 卷积模型前置Module类分析一个更简单的实例 线性模型卷积基类class _ConvNd(Module):类定义class _ConvNd(Module): __constants__ = ['stride', 'p原创 2020-10-16 19:34:03 · 1573 阅读 · 3 评论 -
Pytorch的内置模型 #1 线性模型
文章目录线性模型目的线性模型要解决的问题1 完整源码2 知识储备变量3 forward()方法linear()函数inputweightbias核心代码初始化方法线性模型目的通过学习先进的内置模型,提高建模能力。大佬能把这个模型写出花来!我也要做一个能写出花来的男人!线性模型要解决的问题Y=AX+bY=AX+bY=AX+b实现对A和b的逼近。(请记住这个公式,请相信自己能记住他,最起码五分钟!)1 完整源码class Linear(Module): __constants__ =原创 2020-10-15 21:12:13 · 513 阅读 · 0 评论 -
LISTA通过学习的方式进一步提高稀疏向量的生成效率 python(pytorch)
文章目录Learned ISTA 基于学习的快速迭代软阈值方法前置:大佬的论文LISTA与ISTA相同点思想方法期望WdW_dWdLISTA想要如何进一步优化1.对迭代公式进行变形2. 选取可训练参数集3. 通过BPTT进行训练LISTA Pytorch 实现不会画图明天学!评价有问题Learned ISTA 基于学习的快速迭代软阈值方法前置:ISTA 迭代收缩软阈值算法Pytorch 入门大佬的论文Learning Fast Approximations of Sparse Codin原创 2020-10-15 14:39:17 · 2389 阅读 · 5 评论