模式识别
文章平均质量分 61
蛋总的快乐生活
无人驾驶小白,努力学习中。
展开
-
用tdqm在batch情况下的dataloader联合使用可视化进度
最近在用dataloader写数据集,在使用tqdm的时候遇见了一些问题,经过查找大量的资料,总结一个简单的方法。首先,先设置网络的输入和输出,假设这两个量已经是tensor类型了。输入:tensor_x输出:tensor_y那么导入这个库函数from torch.utils.data import DataLoader, TensorDatasetdataset = TensorDataset(tensor_x, tensor_y)loader = DataLoader(datas.原创 2021-08-18 15:00:26 · 3373 阅读 · 0 评论 -
在gym的MountainCar环境下,用图片帧作为状态训练DQN网络
Apply DQN in gym environment in MountainCar-v0文章目录Apply DQN in gym environment in MountainCar-v0一、Gym Environment1.1 ACTION SPACE1.2 STATE SPACE1.3 REWARD1.4 DONE二、Deep Q-learning2.1 Preprocess Frame2.2 Stack Frames2.3 Replay Buffer2.4 Q-target network原创 2021-03-21 11:20:31 · 1201 阅读 · 1 评论 -
感知器遍历采样和批量采样的更新计算
DEMOxt001.00.752.01.533.02.344.03.2y=wxE=t−y=t−wxy=wx\\E=t-y=t-wxy=wxE=t−y=t−wx遍历采样(在线更新)Δw=βExWnew=wold+Δw\Delta w=\beta E x\\W_{new}=w_{old}+\Delta wΔw=βExWnew=wold+Δw批量采样(计算一轮数据后更新)Δw=β1n∑i=1nEixiWnew=wold+原创 2020-12-06 17:48:29 · 219 阅读 · 0 评论 -
拉格朗日对偶的实例计算
一、Lagrange 对偶函数1.1 拉格朗日函数1.2 拉格朗日对偶函数二、标准形式线性规划拉格朗日对偶minCTxs.t.Ax=bx≥0min C^Tx\\s.t. Ax=b\\x\ge0minCTxs.t.Ax=bx≥0构建拉格朗日表达式在标准优化形式中,f(x)≤0f(x)\le0f(x)≤0,因此将满足条件的第二条转换为−x≤0-x\le0−x≤0,那么函数表达式如下:L(x,λ,μ)=CTx+∑λi(−xi)+∑μi(Axi−b)=CTx−λTx+uT(Ax−b)=原创 2020-12-05 11:00:57 · 8260 阅读 · 4 评论 -
[BP或门]三层网络的推导及复现
这是一篇很好的介绍文章,对新手很友好,包含代码以及详细的分析环节。最重要的是,变量不多,结构简单,很适合手动推导一遍,再此基础上看其他推导便能如鱼得水。该文章的要领:一个屏幕上放代码,一个屏幕上看注释https://iamtrask.github.io/2015/07/12/basic-python-network/首先明确一点,y=wx+b,类似的w表示斜率,b表示截距项,在文中用矩阵的形式表示w,该文章实现了没有截距项b的部分,后续会更新一下添加偏置项b的程序然后第二点,作者在输入或门的时候,.原创 2020-11-30 19:32:38 · 335 阅读 · 0 评论 -
PCA均方误差(MSE)最小化和方差最大化的推导
部分参考[https://zhuanlan.zhihu.com/p/77151308],结合自己的一些理解和统计学习方法,补充了一些推导过程)一、方差的定义 Var(x)=1m∑i=1m(xi−μ)2\begin{aligned}Var(x)=\frac{1}{m}\sum_{i=1}^m{(x_i-\mu)^2} \\\end{aligned}Var(x)=m1i=1∑m(xi−μ)2去除均值,方便计算x←x−E[x]x\leftarrow x-E[.原创 2020-11-27 15:05:32 · 5683 阅读 · 3 评论 -
用朴素贝叶斯分类方法解决MNIST手写数字分类问题
https://blog.csdn.net/qwe900/article/details/109774223111原创 2020-11-26 15:57:48 · 1365 阅读 · 1 评论 -
用最小二乘法解决MNIST手写数字分类问题,并结合随机特征法改进
选自线性代数经典教材Introduction to Applied Linear Algebra Vectors, Matrices, and Least Squares而且,这本书免费下载!讲解最小二乘法非常透彻,比如包括它的回归和分类(包括多分类)以及非最小二乘和它们有约束问题的应用。手写字体分类题目在本书的第490页本书的下载链接:https://www.getfreeebooks.com/introduction-to-applied-linear-algebra-vectors-matr.原创 2020-11-23 21:37:00 · 1937 阅读 · 3 评论 -
[决策树]西瓜书中增益、增益比率以及基尼系数的计算
决策树:分裂(Splitting)、停止(Stopping)与剪枝(Pruning)一、Splitting问题:怎样找到最好的分裂属性?希望内在的节点有更高的纯度。怎样去衡量纯度呢?信息熵(Information entropy)是来评判采样D的纯度Ent(D)Ent(D)Ent(D)的值越小表示纯度越高当概率pkp_{k}pk为111的时候,Ent(D)Ent(D)Ent(D)的值为000,也就是说全都是这种情况,纯度很高。当概率pkp_{k}pk为12原创 2020-11-23 21:35:42 · 3309 阅读 · 0 评论