- 博客(3)
- 资源 (2)
- 收藏
- 关注
原创 [机器学习花书笔记] 主成分分析
问题:假设在空间中我们有 m 个点{},我们希望对这些点进行有损压缩。 方法: 低维表示: 点 → 编码向量 若,则我们便使用了更少的内存来存储原来的数据。 to find 编码器 and 解码器 令 , 解码矩阵 (简化解码器) 限制:D的列向量都有单位范数 (为了获得唯一解) 限制:PCA 限制 D 的列向量彼此...
2018-08-19 11:37:41 887
原创 Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution
key word:LapSRN CNNSR 残差 Abstract:利用拉普拉斯金字塔SR网络重建LR的次级(?)残差。 主要方法:低级的feature maps → 金字塔层N → 高分辨率残差 ,按此形式层层放大 备注: 网络结构: 每个金字塔层:卷积层xN(提取特征) → 反卷积层(上采样2倍) → 卷积层(提取特征) → 卷积层(预测残差) ...
2018-08-19 09:15:54 214
原创 [李宏毅机器学习笔记] 1.线性回归
回归:输出一个标量。 例子:用回归计算pokemon的CP值。 步骤1:建立模型 w:权值 x:特征 步骤2:评价函数好坏 获取:训练数据 定义损失函数: 步骤3:找到最优函数 解最优问题: ...
2018-08-17 17:07:39 514
pycuda-2021.1+cuda102-cp38-cp38-win_amd64.whl
2021-07-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人