自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Leslie Lee's blog includes programming in math, physics, and engineering.

仓库 https://gitee.com/leslielee_619;https://gitee.com/leslielee888;https://github.com/leslielee619

  • 博客(23)
  • 资源 (2)
  • 问答 (3)
  • 收藏
  • 关注

原创 傅里叶变换

1. 傅里叶变换家族作用都是将信号从时域变换到频域非周期连续信号用傅里叶变换周期信连续信号用傅里叶级数非周期性离散信号用离散时域傅里叶变换周期性离散信号用离散傅里叶变换1.1 傅里叶级数上面是将周期为T的连续信号f(t)用三角函数表示,也可以用复指数表示1.2 傅里叶变换非周期连续信号可看作周期T无限大的周期连续信号频谱间隔Δf=1/T,1.1中的Δf为一个小量,1.2中的Δf接近0,所以1.1中的频谱为离散的,1.2中的频谱为连续的1.3 离散傅里叶变换FTF

2020-08-31 07:18:11 853 1

原创 希尔伯特变换

1.希尔伯特变换信号x(t)希尔伯特变换 H(t)=x(t)*[1/(Pi*t)] 其中*表示卷积2. 希尔伯特变换的另一种理解也可以将希尔伯特变换看作是输入与系统的卷积系统的脉冲响应函数为h(t)=1/(Pi*t)输入为x(t)输出H(t) = x(t)*h(t)3. 将实信号变为复信号实信号 x(t)复信号 z(t) = x(t) + j*{x(t)*[1/(Pi*t)]} = x(t) + j*H(t)...

2020-08-30 17:07:28 6431

原创 轮系

轮系

2020-08-30 08:40:50 219

原创 数学物理方程 第五章 勒让德多项式

Legendre多项式分离变量法中使用的本征函数是三角函数系,本章使用的本征函数是勒让德多项式构成的本征函数系。1. 对比Sturn-Liouville本征值问题分离变量法一章讨论的是 X''+λX=0 根据不同的边值条件得到不同的本征值与本征函数使得解X不为0的λ称为本征值求解关于u=u(x,t)的齐次微分方程utt = a^2*uxx时,使用了分离变量法u=X(x)*T(t)勒让德方程使得解y不为0的λ称为本征值求解微分方程时,设,即直接设解的形式为幂级数可看出以上两个..

2020-08-24 22:45:33 18895

原创 数学物理方程—积分复习

三维直角坐标系 dxdydz柱坐标系 drdθdz球坐标系 drdθdφ令x=rcosθ y=rsinθdxdydz =令x=rsinφcosθ y=rsinφsinθ z=rcosφdxdydz =

2020-08-24 22:44:33 5134

原创 安装NX1926

为什么安装?这是一个三维建模软件,我之前安装了solidworks,听说这个好用,也试一试其实对于CAD软件我不是很熟悉卸载安装之前先说一下卸载。自己之前安错了,然后卸载了,卸载我花了挺长时间的,大家稍微等一等。但自己之前把一个文件夹放到了C盘的根目录,无法删除,解决如下:从资源管理器打开资源监视器输入文件夹的名称就会出现文件夹中正在被使用的程序,选择结束进程,便可以删除文件夹了安装软件是在CAD自学网里面下载的,但安装教程貌似有问题,反正我安装不了,所以我跟上老叶的视频安装了一

2020-08-24 22:38:15 3473

原创 贝叶斯决策——例题

概率论书上的一道例题风险决策与贝叶斯决策?贝叶斯决策是对风险决策的进一步修正。花钱了解更多的信息,对概率进行修正。某工程项目按合同应在三个月内完工,其施工费用与工程完工期有关。假定天气是影响能否按期完工的决定因素,如果天气好,工程能按时完工,获利5万元;如果天气不好,不能按时完工,施工单位将被罚款1万元;若不施工就要付出窝工费2千元。根据过去的经验,在计划实施工期天气好的可能性为30%。为了更好地掌握天气情况,可以申请气象中心进行天气预报,并提供同一时期天气预报资料,但需要支付资料费80.

2020-08-16 14:59:22 4518 1

原创 复习《概率论与数理统计》(二)

贝叶斯泊松雅各布伯努利(雅可伯努利)高斯惠更斯切比雪夫奈曼费希尔

2020-08-15 12:44:30 6183

原创 数学陈述

公理:没有经过证明,但被当作不证自明的命题公设:本学科内的,没有经过证明,但被当作不证自明的命题公理是许多科学分支所共有的,而各个科学分支中的公设则是不同的。定理:在公理的基础上推导出来,并被证明为真的命题命题:可以判断真假的陈述句,有真命题和假命题,也有悖论推论:一个从定理随之而即时出现的命题引理:某个定理的证明的一部分的命题假说:根据已知的科学事实和科学原理,对所研究的自然现象及其规律性提出的推测和说明定律:定义:定则:法则:原理:有时间会补充...

2020-08-12 23:45:04 347

原创 《神经网络与深度学习》第二部分 (三)

7. 网络优化与正则化优化问题:损失函数是一个非凸函数(比如二维损失函数L(w1,w2)会有多个山峰 山谷)、梯度消失、参数过多泛化问题:采用正则化降低过拟合7.1非凸函数凸函数是指一维函数只有一个波峰或波谷,二维函数只有一个山峰或山谷。而实际中,很多损失函数都是非凸函数。一维函数 y=x+x**2-x**3有两个极值点二维函数 z=x**2-y**2 (马鞍面)马鞍点是该维度的极小值点,即y=0,z=x**2马鞍点是该维度的极大值点,即x=0,z=-y**27.2优化算法.

2020-08-12 20:54:42 1093

原创 梯度消失

参数通过梯度下降进行更新,梯度消失导致参数无法更新1.梯度特别小导致无法更新参数z = wx-2y = σ(z) σ是标准logistic函数训练样本 (1,0.8),所以y_target = 0.8初始值w=-8y = σ(-8*1 - 2) ≈ 0.00005,可见与目标值相差很大,需要进行训练参数w损失函数为平方损失函数w通过梯度下降法进行更新学习率 lr=0.1可以看出w≈-8,∂L/∂w≈-7E-5这就是梯度接近于0,w无法通过梯度下降法...

2020-08-11 21:09:46 374

原创 自动梯度计算

以下都以该式进行讨论,当x=1,w=0,b=0时,计算f关于w的梯度1. 数值微分数值微分有多种方法,这里使用差分方法一阶中心差分公式 x=1,w=0,b=0时 取Δw=0.001 计算出f关于w的梯度约为0.25精确求导公式 x=1,w=0,b=0时 计算出f关于w的梯度为0.252.符号微分我使用了sympy库进行了展示,但其内部代码我还不了解。import sympy as spw,x,b = sp.symbols('w,x,b')f ...

2020-08-11 12:51:04 1779 1

原创 Recurrent NN 举例说明

主要内容来自MOOC北京大学课程学习1. 对比CNN与RNN卷积核 kernel循环核 cellCNN就是卷积核提取特征,送入全连接网络,卷积核参数空间共享RNN就是循环核提取特征,送入全连接网络,循环核参数时间共享2. RNN的数学模型也可以使用其他函数,我这里只是举个例子。三个权重矩阵与偏置向量只有在反向传播时才会更新。3. 输入一个字母预测一个字母输入a预测b输入b预测c输入c预测d输入d预测e输入e预测a首先对字母进行编码(用独热码编码)10000

2020-08-09 11:06:36 283

原创 信息熵

维纳:控制论创始人,香农:信息论创始人,图灵:计算机科学的创始人1. 熵entropy热力学:分子状态的混乱程度信息论:信源不确定性的大小2.信息熵信息是用来消除随机不确定性的东西信源是产生信息的实体即(1) p越大,信源的不确定性越小 (2) 函数f满足可加性对数函数满足这两个条件 f(P) = log(1/P) = -log(P)log一般以2为底数,在sklearn中一般以e为底数3.交叉熵神经网络输出概率分布的损失函数4.相对熵...

2020-08-09 00:00:18 179

原创 MOOC《深度学习基础》笔记(一)

chapter 11.1类别标签的ground truth与gold standardground truth:可翻译为地面实况等。在机器学习领域一般用于表示真实值、标准答案等,表示通过直接观察收集到的真实结果。gold standard:可翻译为金标准。医学上一般指诊断疾病公认的最可靠的方法。在机器学习领域,更倾向于使用“ground truth” 。而如果用gold standard这个词,则表示其可以很好地代表ground truth。1.2 验证集验证集与测试集类似,也是用于评估

2020-08-08 23:53:41 950

原创 python机器学习库

后续会继续添加...

2020-08-07 22:09:23 147

原创 tensorflow实现iris分类

八股搭建网络:我觉得是指按照固定模式搭建神经网络,八股只是呆板的意思,并不是按照八个步骤搭建。我们抨击的应该是八股取士制度,而不是八股文。

2020-08-06 13:47:32 1488

原创 梯度下降法

我在此使用一个一维线性函数举例 即y=wx+1训练集={(3,10)} 训练集也就一个元素1. 随机梯度下降法目标值 y_ = 10输出值 yLoss = (y - y_)**2∂Loss/∂w = 2*(y - y_)*xw_new = w_old - lr*∂Loss/∂w 学习率lr=0.1初始值w=5,y=3*5+1=16,∂Loss/∂w=2*(16 - 10)*3=36w=5-0.1*36=1.4,y=3*1.4+1=5.2,∂Loss/∂w=2*(5.2 - 1...

2020-08-06 00:25:01 185

原创 MOOC《人工智能实践:Tensorflow笔记2》(一)

去年秋天看过这个视频,现在再好好看看1. 专家系统与神经网络区别要求:对iris进行分类专家系统将经验编写成条件语句,输入当前鸢尾花的特征,输出其类别神经网络通过训练集训练好,输入当前鸢尾花的特征,输出其类别2. 神经网络对iris进行分类输入是四个特征:花萼长、花萼宽、花瓣长、花瓣宽输出:狗尾草鸢尾、杂色鸢尾、弗吉尼亚鸢尾y = x*w + b(1,3) = (1,4)*(4,3) + (1,3)...

2020-08-04 23:26:14 389

原创 《神经网络与深度学习》第二部分 (二)

6.循环神经网络前馈神经网络、卷积神经网络都是单向传递的。而时序数据不仅与当前输入相关,还和过去一段时间的输出相关。前馈神经网络、卷积神经网络的输入 输出维数都是固定的。而时序数据的长度一般是不固定的。所以用循环神经网络处理时序数据。由RNN扩展出两种记忆网络模型:递归神经网络、图网络RNN的参数学习算法:随时间反向传播算法RNN是指 Recurrent NN 循环神经网络/递归神经网络RecNN是指 Recursive NN 递归神经网络6.1 给网络增加记忆能力延时神经网络 .

2020-08-04 12:11:43 371

原创 《现代控制理论》绪论

西北工业大学课程1.控制理论的发展经典控制理论/自动控制理论现代控制理论鲁棒控制理论2.经典控制理论的发展指南车:开环自动调节系统水运仪象台:闭环自动调节系统 开环、闭环的区别就是有没有反馈十八世纪,自动控制理论用到工业当中十九世纪—二十世纪,发展判断自动控制系统是否稳定的理论马克斯维尔提出稳定性判据劳斯与赫尔维兹(胡尔维兹)奈奎斯特提出频域的频率响应法伊万斯提出复数域的根轨迹法维纳 1948《控制论—关于动物和机器中控制与通讯的科学》建立控制理论一般方法...

2020-08-04 09:25:50 1585

原创 控制工程——传递函数与状态方程

1.基本概念状态方程:信号理论、控制理论与 热学都有状态方程,我现在指的是前者的。状态:控制系统中 可决定系统状态的最小数目的一组变量组成的集合状态向量:状态变量在某一时刻的值。在t=0时刻的的状态向量也称初始状态向量。如该系统的状态变量为{变量1 变量2 变量3}那么 t=t0时刻的 状态向量为{值1 值2 值3}状态空间:状态={变量1,变量2,...} 状态空间={状态1,状态2,...} 状态空间就是一个集合的集合现代控制理论以状态空间理论为基础,经典控制理论以传递函数理论为基...

2020-08-02 19:11:27 14742

原创 《神经网络与深度学习》第二部分 (一)

4 前馈神经网络4.1神经元z = trans(w)x+bMP神经元 f(z)取0或1,该激活函数为指示函数取其他激活函数就构成其他神经元激活函数其他种类:sigmoid型(logistic函数、tanh函数、hard-logistic函数、hard-tanh函数)ReLU型(ReLU函数、带泄露的ReLU、带参数的ReLU、ELU函数、Softplus函数)Swish函数GELU单元Maxout单元偏置偏移:Tanh 函数的输出是零中心化的(Zero-Centered),而

2020-08-01 13:14:42 989

三菱PLC学习软件FX-TRN-BEG-C.rar

这是一个三菱PLC学习软件,欢迎大家下载。 我在win10上用过。

2020-05-12

masm link debug dosbox

适合win10电脑,本人现在就在使用,如果你正在学微机原理,那么这是必要的。 凑够50各字才可以,所以我现在正在写废话来凑够字数,我觉得应该凑够了。

2018-06-03

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除