- 博客(9)
- 收藏
- 关注
原创 pytorch深度学习loss函数
交叉熵损失函数其中y为标签,p为预测值。NLL Loss = 取target相应位置,取反,求平均* 直接输入output和target,网络中不用加softmax或者对target做one hot编码。
2023-08-31 20:52:29
63
原创 calibre输出中文文件名
在calibre源代码中修改.\calibre-6.23.0\src\calibre\utils\filenames.py中的第31行由’ascii’改为’orig’变量名:CALIBRE_DEVELOP_FROM。控制面板–系统–高级系统设置–环境变量–新建。变量值:源代码所在目录。
2023-07-31 15:10:50
801
原创 Task6-卷积神经网络(CNN)
(没学太明白啊(ó﹏ò。)后面再看一些别的资料补充再来修改本文吧(超小声))常用语影像处理流程:input→\to→convolution→\to→max pooling→\to→convolution→\to→max pooling …\dots…→\to→flatterm→\to→全连接前馈神经网络→\to→output图案特征图案比整张图小很多同一图案出现在不同的区域对像素下采样不会改变物品的基本信息其中1、2用卷积,3用Max Pooling...
2021-08-26 10:14:01
90
原创 Task5-神经网络设计的技巧
优化失败的可能原因在critical point卡住了,即梯度为0的地方卡住了。两种critical point:局部最小点;鞍点在低维度中的局部最小点在高维度中可能是鞍点;在低维度中的critical point在高维度中可能不属于critical point找出是哪一种情形:泰勒级数当θ\thetaθ趋于θ′\theta'θ′时:L(θ)≈L(θ′)+(θ−θ′)T∂θ′∂θi+12(θ−θ′)T∂2L(θ′)∂θi∂θj(θ−θ′)L(\theta)≈L(\theta')+(\theta-
2021-08-23 20:29:23
123
原创 Task4-P13-14-深度学习介绍和反向传播算法
深度学习Steps:神经网络→\to→模型评估→\to→择优神经网络神经元完全连接前馈神经网络中间层:hidden layerdeep:即hidden layer层数多层数过多时,用矩阵运算更高效。用矩阵表示运算多层时,y=f(wl...f(w2f(w1x+b1)+b2)...+bl)y=f(w^l ... f(w^2f(w^1x+b^1)+b^2)...+b^l)y=f(wl...f(w2f(w1x+b1)+b2)...+bl)模型评估C(y,y^)=−∑iyi^lnyiC
2021-08-21 16:13:06
102
原创 Task3-P5-8-Error & Gradient Descent
误差来源无偏估计E(1N∑xn)=1N∑nExn=NNExn=μE(\frac{1}{N}\sum x^n)=\frac{1}{N}\sum_n Ex^n=\frac{N}{N}Ex^n=\muE(N1∑xn)=N1∑nExn=NNExn=μVar(1N∑xn)=σ2NVar(\frac{1}{N}\sum x^n)=\frac{\sigma ^2}{N}Var(N1∑xn)=Nσ2有偏估计S2=1N∑(xn−1N∑xn)2S^2=\frac{1}{N}\sum (x^n-\frac{
2021-08-20 11:43:38
93
原创 Task1-P1-2-Introduction
ML介绍yesMaybeSteps模型:线性模型一元:y=wx+by=wx+by=wx+b多元:y=w∑xi+by=w\sum x_i +by=w∑xi+b模型评估:损失函数Best function选择y^\hat{y}y^
2021-08-16 11:55:56
97
原创 Task2-P3-4:Regression
标记提示xbax^a_bxba中,a:x的编号,b:x的部分/特征/属性yba^\hat{y^a_b}yba^表示y的真实值,a、b同上Steps模型:线性模型一元:y=wx+by=wx+by=wx+b多元:y=w∑xi+by=w\sum x^i +by=w∑xi+b改变www和bbb以获得方法集模型评估:损失函数y的预测值和真实值的方差L(w,b)=∑i=1m[yi^−(xi+b)]2L(w,b)= \sum_{i=1}^m [\hat{y^i} - (x^i +b)]^2L(w
2021-08-16 11:53:19
78
原创 LaTex入门笔记
文件后缀:.tex文档内容结构(导言区)\documentclass{article} <宏包引用>(正文区)\begin{document} <正文>\end{document}查看帮助文档:texdoc 宏包名注释:%快速注释:Ctrl+T取消注释:Ctrl+U加入年月日:\maketitle换行符:\\ 没有产生新段落,不会自动生成首行缩进换段落符:①空行②\par 会自动生成首行缩进字体1.族A 罗马字\textrm{..
2021-06-26 20:08:59
785
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人