自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

HeroIsUseless的博客

才大难为用

  • 博客(31)
  • 收藏
  • 关注

原创 网站建设 之 去除vue的#

对于vue开发的单页面应用,我们在切换不同的页面的时候,可以发现html永远只有一个,这也真是称之为单页面的原因,而vue-router 默认 hash 模式 —— 使用 URL 的 hash 来模拟一个完整的 URL,于是当 URL 改变时,页面不会重新加载。因为对于正常的页面来说,更换url一定是会导致页面的更换的, 而只有更换url中的查询字符串和hash值得时候才不会重新加载页面。 这里也就是这个道理。前端路由的核心,就在于 —— 改变视图的同时不会向后端发出请求。为了达到这一目的,浏览器当前提

2020-10-31 18:36:17 240

原创 机器学习 之 EM算法

EM(Expectation-Maximum)算法也称期望最大化算法EM算法是最常见的隐变量估计方法,在机器学习中有极为广泛的用途,例如常被用来学习高斯混合模型(Gaussian mixture model,简称GMM)的参数;隐式马尔科夫算法(HMM)、LDA主题模型的变分推断等等。...

2020-10-30 16:17:33 308

原创 机器学习 之 图模型

图模型是用来解决,例如一张图片要么是0或9,但一个单词有名词或动词两种类型,图模型就是解决这个的。概率图模型(简称图模型),PGM。贝叶斯网络是有向图模型,CPD,条件概率分布。当然是DAG,有向无环图。很明显,最好都是独立的。例如,如果已观察到Intelligence,那么SAT与Grade是无关的,独立的。马尔可夫网络:无向图模型在马尔可夫图中,如果节点A和B之间没有路径能使得该路径上的所有节点都被观察到(只要有一个节点是未知节点),那么A和B就是相互独立的。例如用图模型

2020-10-30 16:07:05 1624

原创 机器学习 之 集成学习

boost随机森林什么的

2020-10-30 11:17:36 64 1

原创 机器学习 之PCA(主成分分析)与拉格朗日乘子

PCA能做的事其实很有限,那就是:降维。为什要降维呢?很明显,数据中有些内容没有价值,这些内容的存在会影响算法的性能,和准确性。看这两个图,就说明了降维的意义,越降维,维度就会越有意义。这样只取x2的值(投影),就从二维降维到了一维。主成分分析可以让数据的投影到那些数据分布尽可能分散(信息最大)的平面上,比如上图的y1,从而忽视y2的作用,进而达到降维的目的。说是降维,实际上就是坐标变换+去掉一些坐标,降维函数实际上一个WWW就可以了。我们说数据尽可能分散(信息最大化),体现在矩阵上就是方差很大,

2020-10-30 11:16:31 1529

原创 Github 之 action

jar包是打好了,但是你需要登录远程服务器,上传,运行jar包,这操作很费劲,你能不能一个脚本执行?例如除了sharesoft,还有别的网站(例如coder coop),都是一样的操作,怎么办?(1)workflow(工作流程):持续集成一次运行的过程,就是一个 workflow,就是上面那一套流程。(2)job(任务):一个 workflow 由一个或多个 jobs 构成,含义是一次持续集成的运行,可以完成多个任务,例如分为本地和服务器两个job。(3)step(步骤):每个 job ..

2020-10-29 18:10:26 522

原创 C++ 之 参数传递

关于参数返回,函数内部的肯定要销毁的,所以每次返回都会重新构造一遍类。

2020-10-27 11:23:20 64

原创 网站建设 之 图片显示

它这个工程首先是一个jar包,因此应该在外面设定好文件夹才行。String path = request.getServletContext().getRealPath("/imgs") + "/" + name;这个路径是jar包内部的,jar包自带。//获取到图片格式String format = path.substring(path.lastIndexOf(".")+1);读取文件File file = new File(path);try { //读取图片文

2020-10-26 11:10:44 104

原创 new与构造函数

当构造一个类时,用new呢还是用构造函数呢?当需要赋予一个指针时,用newClass *pClass = new Class(构造参数);当仅仅使用这个类时,用构造函数Class class(构造参数);除此之外就不要用其他的了。

2020-10-24 18:45:28 158

原创 C++ 递归与调用的区别

递归就是递归函数,0一直递归下去。数据由系统保管。迭代就是循环,最多两层函数,因此for循环里,数据由自己保管,而普通循环没有迭代的东西(例如打印1000行hello world),迭代和递归都与之前的结果有关(i并不是迭代量,迭代量首先应该是输出量)。自己保管迭代量是比较复杂的。迭代是iter,递归是recur,以后写这种函数就是单独列一个内层函数比较好。...

2020-10-24 18:43:24 295

原创 机器学习 之 K均值聚类

聚类分析是一种无监督学习技术(常见的无监督学习还有密度估计、异常检测等),可以在事先不知道正确结果(即无类标或预期输出值)的情况下,发现数据本身所蕴含的结构信息。其目标是发现数据中自然形成的分组,使得每个簇内样本的相似性大于其他簇内样本的相似性。聚类的商业领域应用包括:按照不同主题对文档、音乐、电影进行分组,或基于常见的购买行为,发现有相同兴趣爱好的顾客,并以此构建推荐引擎。性能度量大致分为两类:一类是将聚类结果与某种参考模型(例如将某领域专家给出的分类结果作为参考模型)进行比较,称为外部指标;另一类是

2020-10-23 11:32:23 268

原创 C++ 之 Hook编程

当我们使用特定函数来安装一个钩子时,操作系统会给这个钩子分配一个钩子链表,信息先经过钩子函数洗一遍,才行。这段程序会根据钩子类型的不同,来实现不同程度的消息截获,并且这个钩子链表里包含了这个钩子程序的地址,类型,回调函数的地址!并且钩子子程序的优先级会高于应用程序,在接受消息时会被钩子子程序先行截获,操作系统会先把消息发送给钩子,由钩子决定这些消息是否发送下去,钩子可以拦截这些消息,可以决定这些消息的作用,甚至可以屏蔽这些消息不让传递到指定应用程序当中!在安装钩子的时候是由顺序之分的,链表遵循的是先进

2020-10-23 08:58:23 3187

原创 机器学习 之 逻辑回归(Logistic)

Logistic 回归的本质是:假设数据服从这个分布,然后使用极大似然估计做参数的估计。Logistic 分布是一种连续型的概率分布,其分布函数和密度函数分别为:这个函数比较符合实际,例如蝗虫的增长速度,员工自杀率等。Logistic 分布的形状与正态分布的形状相似,但是 Logistic 分布的尾部更长,所以我们可以使用 Logistic 分布来建模比正态分布具有更长尾部和更高波峰的数据分布。在深度学习中常用到的 Sigmoid 函数就是 Logistic 的分布函数在μ=0,r=1\mu=0,

2020-10-22 23:24:23 3238

原创 机器学习 之 作业3

实际上就是在求朴素贝叶斯的参数估计而已。XXX连续的情况P(Xi∣Yi,θ)=∏k=1KN(Yi∣μR,ΣR)I{yi=k}P(X_i|Y_i,\theta)=\prod^K_{k=1}N(Y_i|\mu_R,\Sigma_R)^{I\{y_i=k\}}P(Xi​∣Yi​,θ)=∏k=1K​N(Yi​∣μR​,ΣR​)I{yi​=k}仅仅是在说明是相互独立的而已,下面也是在说相互独立而已,这里只是在体现相互独立性。什么意思呢?实际上,期望就是期望,我们不是要求它特定值,而是借助求它最大值的时候,求

2020-10-22 20:31:59 123

原创 数学 之 复变函数

复变函数,是指以复数作为自变量和因变量的函数 ,而与之相关的理论就是复变函数论。是高数的一种进阶,更奇特有趣。如果函数f(z)f(z)f(z)在z0z_0z0​点及z0z_0z0​点的某个邻域内处处可导,那么称f(z)f(z)f(z)在z0z_0z0​点解析。如果f(z)在区域DDD内每一点解析,那么称f(z)f(z)f(z)在DDD内解析,或称f(z)f(z)f(z)是DDD内的一个解析函数,并把DDD称为f(z)f(z)f(z)的解析区域。函数在一点可导,不一定在该点处解析。柯西-黎曼方程/可惜-

2020-10-20 23:00:27 3087

原创 机器学习 之 决策树

决策树是一种机器学习的方法。决策树的生成算法有ID3, C4.5和C5.0等。就是这么一个东西,但这种东西是自动生成的,如何生成这个,就是各种算法了。这是有监督学习。监管学习就是给出一堆样本,每个样本都有一组属性和一个分类结果,也就是分类结果已知,非监督学习就是分类未知。所以决策树的生成主要分以下两步:节点的分裂:一般当一个节点所代表的属性无法给出判断时(毕竟最后是要分类的,如果能区分的话,那就到此为止了),则选择将这一节点分成2个子节点(如不是二叉树的情况会分成n个子节点)阈值的确定:选择适

2020-10-20 17:53:19 298

原创 C++ 之lib,dll,stl

__declspec(dllexport) int FUNCTION(int a, int b)_declspec(dllexport) int __stdcall test2(int a, int b)_declspec(dllexport)和添加def文件将一个函数声名为导出函数,就是说这个函数要被其他程序调用,即作为DLL的一个对外函数接口。通常它和extern“C”合用,形式如下:extern "C"{ __declspec(dllexport) void FUNCTION()...

2020-10-16 23:00:17 374

原创 机器学习 之 马尔可夫-蒙特卡洛法

什么是蒙特卡洛法?就是随机投点计算圆周率的那个例子。三门问题如何理解?(当然你可以用暴力蒙特卡洛算出)比如说主持人和你做游戏,你有一个箱子,里面有1个球;主持人一个箱子,里面有2个球。他知道每个球的颜色,但你啥也不知道。但是3个球里面只有1个紫色的球,2个蓝色的球,谁手里面有紫色的球,谁就获得大奖。主持人说:你要和我换箱子吗?当然换,我箱子里只有1个球,中奖率13\frac{1}{3}31​,他箱子里有2个球,中奖率23\frac{2}{3}32​ ,换的中奖率是不换的2倍。这是这个游戏的结论。

2020-10-15 23:58:15 435

原创 机器学习 之 朴素贝叶斯与生成,判别模型,回归与分类

生成模型估计的是联合概率分布,然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。生成方法关心的是给定输入x产生输出y的生成关系。判别模型估计的是条件概率分布,有数据直接学得决策函数P(X)或者条件概率分布P(Y|X)作为预测的模型。判别式方法关心的是给定输入X,应该预测什么样的输出Y(判别给出的Y对不对)回归与分类相对w\textbf ww是随机变量,为什么呢?因为我们根本不知道它的真实值,所以我们用概率分布P(w)P(\textbf w)P(w

2020-10-14 09:07:49 1157

原创 模糊控制 之 神经网络建模

2020-10-12 09:17:33 1201

原创 MyOS 之 切换用户进程

MyOS与真正操作系统相比,就是它没有编译器(正在制作中),无法在系统里制作自己的应用级程序,但是我们仍要实现用户级应用程序的话,那么就需要在内核中自带(因为连硬盘都没有。。。),在内核中开辟一块区域用来模拟硬盘,然后开辟用户级内存,然后跳转之。存在哪里呢?存在app.asm,并入到main.asm中,就是如此。如果进行复制的话,那么这个app就不能使用任何操作系统的函数,只能使用各种门来调用系统调用。开辟用户级程序,有以下步骤:1. 开辟一块4K内存,制作一个TSS,填入GDT这个TSS地址。

2020-10-11 14:01:50 489

原创 C++ 之 const

const修饰变量一般有两种方式:const T *a,或者 T const *a,这两者都是一样的。有 const 修饰的成员函数(指 const 放在函数参数表的后面,而不是在函数前面或者参数表内),只能读取数据成员,不能改变数据成员;没有 const 修饰的成员函数,对数据成员则是可读可写的。常量(即 const)对象可以调用 const 成员函数,而不能调用非const修饰的函数。如果要声明一个const类型的类成员函数,只需要在成员函数列表后加上关键字const, 例如:class

2020-10-08 14:35:13 127

原创 机器学习 之 K近邻(KNN),各种距离(范数)

在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。(这就类似于现实生活中少数服从多数的思想)比如k怎么确定的,k为多少效果最好呢?所谓的最近邻又是如何来判断给定呢?如果我们选取较小的k值,那么就会意味着我们的整体模型会变得复杂,容易发生过拟合!(容易被噪声占据优势)如果我们选取较大的k值,就相当于用较大邻域中的训练数据进行预测,这时与输入实例较远的(不相似)训练实例也会对预测起作用,使预测发生错误,k值的增大意味着整体模型变得简单。不解释。k值既不能

2020-10-07 13:59:18 1009

原创 机器学习 之 ROC曲线,混淆矩阵

TP true positiveFP false positiveTNFNFPR=FP()所有负样本FPR=\frac{FP()}{所有负样本}FPR=所有负样本FP()​#代表数字TPR=#TP(判断正确的正样本)所有正样本TPR=\frac{ \# TP(判断正确的正样本)}{所有正样本}TPR=所有正样本#TP(判断正确的正样本)​TPR也叫召回率Precission=#TPTP+FPPrecission=\frac{\# TP}{TP+FP}Precission=TP+FP#TP​

2020-10-06 16:40:43 3084

原创 机器学习 之 作业2

作业 1: 线性回归模型的极大似然估计给了普通数据D,普通高斯模型,最大似然估计,好做啊1. E(wMLE)E(\textbf w_{MLE})E(wMLE​)w=(XTX)−1XTyE(w)=1dITw=1dIT(XTX)−1XTy\textbf w=(\textbf X^T\textbf X)^{-1}\textbf X^T\textbf y\\E(\textbf w)=\frac{1}{d}\textbf I^T\textbf w\\=\frac{1}{d}\textbf I^T(\text

2020-10-05 00:30:16 124

原创 机器学习 之 贝叶斯估计与范数

每日小常识范数,是具有“长度”概念的函数。欧式范数,实际上是l2l_2l2​-范数∣∣x∣∣=32+(−2)2+12=3.742||x||=\sqrt{3^2+(-2)^2+1^2}=3.742∣∣x∣∣=32+(−2)2+12​=3.742lpl_plp​-范数定义为∣∣x∣∣p=p∑i∣xi∣p||x||_p=^p\sqrt{\sum_i|x_i|^p}∣∣x∣∣p​=pi∑​∣xi​∣p​例如l1l_1l1​-范数定义为lpl_plp​-范数定义为∣∣x∣∣p=∑i∣xi∣||x||_

2020-10-04 21:30:34 371

原创 网络安全 之 SQL注入

这个可以写一本书,自己之前读过这样一本书,明白是怎么回事,没怎么看,感觉也不用看。太多了

2020-10-04 00:20:48 135

原创 网站建设 之 MyBatis, apache, 路由

之前太长了,现在还是做mybatis。MyBatis使用步骤总结1)配置mybatis-config.xml 全局的配置文件 (1、数据源,2、外部的mapper) 2)创建SqlSessionFactory 3)通过SqlSessionFactory创建SqlSession对象 4)通过SqlSession操作数据库 CRUD 5)调用session.commit()提交事务 6)调用session.close()关闭会话好难啊。。。...

2020-10-03 14:42:34 134

原创 物理 之 问题

多了去了,根本不罕见。现代科学提供的是描述世界的模型,而不是“绝对真理”,模型只要求容易理解和使用、能比其它模型更好地解释现有观测事实、做出预言并被验证。对于一个时期的理论无法解释的事物,人们可以构造新的理论或修补旧的理论,但现在构造出的所有理论都不能让人完全满意。现有的宇宙论模型无法解释规模巨大的观测事实。武仙-北冕座长城[1]和巨型伽马射线暴环[2]所代表的不均匀性,靠引力、宇宙早期量子涨落、暗物质和暗能量都无法产生。我们还没有能在兼容这样的巨型结构的同时跟现在这个宇宙论模型一样好地解释宇宙微波背景

2020-10-03 00:31:23 131

原创 机器学习 之 作业1

作业 1: 经验风险最小化 vs. 结构风险最小化[1] 解释:期望风险最小,经验风险最小化和结构风险最小化;那么如果想知道模型对训练样本中所有的样本的预测能力,那就是经验风险,经验风险是对训练集中的所有样本点损失函数的总和最小化。经验风险越小说明模型对训练集的拟合程度越好。我们知道未知的样本数据的数量是不容易确定的,所以就没有办法用所有样本损失函数的总和的最小化这个方法,那么用期望来衡量这个模型对所有的样本(包含未知的样本和已知的训练样本)预测能力。这就是期望风险,期望风险表示的是全局的概念,表示的

2020-10-03 00:10:17 224

原创 语音识别 之 概论

语音识别建模方法DTW,模板匹配,实现两个不等长的语音的匹配,将语音匹配相似度问题转换为最优路径的问题。GMM-HMM,都快说烂了,不写了。DNN-HMM,端到端,E2E模型,

2020-10-01 15:51:26 132

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除