机器/深度学习笔记
文章平均质量分 94
机器学习的笔记与实践
明·煜
双鸭山电通小学生
展开
-
实现一个简单的GAN网络
一个简单GAN网络的实现方法,具体任务目标可以参考代码中的链接。随着这一过程的发展,警察开发了越来越复杂的技术来检测货币伪造,而犯罪分子则开发越来越复杂的技术来伪造货币。网络的核心在于实现了一个二分类问题,并输出输入数据实际来自真实数据集(而不是合成或虚假数据)的概率。生成对抗网络利用对抗过程来训练两个相互竞争的神经网络,直到达到理想的平衡。在不断迭代的过程会使得生成器和鉴别器不断升级。以伪造货币的过程为理论例子,想象两种类型的特工。鉴别器:尽可能鉴别真实图像和虚假图像。生成器:尽可能生成真实的图像。原创 2023-12-08 11:11:46 · 94 阅读 · 0 评论 -
作业二·Softmax实现多分类
对于多类问题,类别标签y∈1,2,⋯ ,Cy \in {1,2,\cdots,C}y∈1,2,⋯,C可以有C个取值,给定一个样本x,则Softmax回归预测的属于c的条件概率是:p(y=c∣x)=softmax(wcTx)=ewcTx∑ci=1CewciTxp(y=c|x) = \operatorname{softmax}(w^T_cx) = \frac{e^{w_c^Tx}}{\sum_{c_i = 1}^{C}e^{w_{c_i}^Tx}}p(y=c∣x)=softmax(wcTx)=∑ci原创 2023-04-25 10:08:46 · 871 阅读 · 2 评论 -
作业一 ·感知机实现二分类
对于每个实例点,如果其使得参数更新的次数越多,意味着其离超平面越近,即其越难被分类。当训练数据集线性可分时,感知机学习算法存在无穷多个解,其解由于不同的初值或不同的迭代顺序而可能有所不同。当训练数据集线性可分时,感知机学习算法是收敛的。感知机学习算法是基于随机梯度下降法的对损失函数的最优化算法,有原始形式和对偶形式。感知机学习算法是误分类驱动的,具体是采用随机梯度下降法。中所有的误分类点的梯度下降,而是一次随机选取一个误分类点进行梯度下降。M为误分类点的集合,损失函数对应于误分类点到分离超平面的总距离。原创 2023-04-16 11:25:54 · 1808 阅读 · 7 评论