机器学习
小安同学apj
这个作者很懒,什么都没留下…
展开
-
K近邻_(自编程和sklearn实现)
思考k近邻算法的模型复杂度体现在哪里?什么情况下会造成过拟合?答:模型复杂度体现在k上;k较小时,容易造成过拟合;k较大时,容易造成欠拟合。给定一个二维空间的数据集T={正实例:(5,4),(9,6),(4,7);负实例:(2,3),(8,1),(7,2)},试基于欧式距离,找到数据点S(5,3)的最近邻(k=1),并对S点进行分类预测。用“线性扫描”算法自编程实现;impor...原创 2020-03-09 15:49:57 · 325 阅读 · 1 评论 -
感知机
1. 证明感知机学习算法的收敛性。来源:统计学习方法算法收敛性的定义:经过有限次迭代可以得到将训练集完全正确划分的分离超平面和模型。前提:训练数据集是线性可分的,存在超平面使之分开,这样的超平面的参数设为Wopt,boptW_{opt},b_{opt}Wopt,bopt。设wopt^=(woptT,bopt)T,x^=(xT,1)T,∣∣wopt^∣∣=1\hat{w_{opt}}=(...原创 2020-03-08 13:47:46 · 223 阅读 · 0 评论 -
谱聚类
谱聚类(spectral clustering)原理总结:谱聚类(spectral clustering)是广泛使用的聚类算法,比起传统的K-Means算法,谱聚类对数据分布的适应性更强,聚类效果也很优秀,同时聚类的计算量也小很多,更加难能可贵的是实现起来也不复杂。在处理实际的聚类问题时,个人认为谱聚类是应该首先考虑的几种算法之一。下面我们就对谱聚类的算法原理做一个总结。1. 谱聚类概述谱聚...原创 2020-03-04 22:43:54 · 486 阅读 · 0 评论 -
学习logistic回归——看这一篇就够了,超详细算法推导
数学概念logistic回归听名字是一个回归问题,但其实是一个二元分类问题,losgistic函数如下所示:f(x)=11+e−xf(x)=\frac{1}{1+e^{-x}}f(x)=1+e−x1图像如下:如图所示,当x趋向于正无穷时,f(x)的值趋向于1;当x趋向于负无穷时,f(x)的值趋向于0,0.5为分界线。P(Y=1∣x)=f(x)=11+e−θ1+θ2xP(Y=1|...原创 2020-02-17 21:22:25 · 4028 阅读 · 0 评论 -
Python神经网络编程-学习笔记
第一章 神经网络如何工作1.1 -1.7 简单介绍问题:为什么必须把前后层的每一个神经元与其他所有层的神经元相互连接,为啥不采用创造性的方式进行连接?答案:第一,这种完全一致的形式可以相对容易的编码成计算机指令;第二,神经网络的学习过程会弱化这些实际上不需要的连接(也就是这些层的权重为趋近于0)。1.8 矩阵乘法矩阵点乘:[w1,1w2,1w1,2w2,2]∗[input1inpu...原创 2019-11-23 16:54:29 · 207 阅读 · 0 评论 -
一、mysql数据库概述
了解mysql数据库管理系统,内容如下:1. 基于数据库的PHP项目目前动态网站都是基于数据库,将网站内容用数据库存放(用户,栏目,图片,评论)2. 为什么要使用Mysqloracle、DB2、SQL ServerPHP+Mysql 黄金搭档3. Mysql架构c/s client/server客户端 服务器--数据库---表-...原创 2019-11-12 14:46:19 · 140 阅读 · 0 评论 -
tensorflow:实战Google深度学习框架(3.4.5完整的神经网络样例程序)
import tensorflow as tfimport numpy as np#定义训练数据batch的大小(就是一次放入多少数据)batch_size=8#定义神经网络的参数w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))w2=tf.Variable(tf.random_normal([3,1],stddev=1...原创 2019-11-02 16:52:15 · 126 阅读 · 0 评论 -
(SVD、NMF)矩阵分解相关知识点总结
参考:https://mp.weixin.qq.com/s/Dv51K8JETakIKe5dPBAPVg目录1 矩阵分解1.1 矩阵分解的原因(作用)1.2 矩阵分解的方法1.3 推荐学习的经典矩阵分解方法2 SVD具体介绍2.1 特征值、特征向量、特征值分解2.2 SVD分解2.3 SVD分解的应用3 NMF(非负矩阵分解)3.1 背景3.2 NM...原创 2019-10-13 22:23:55 · 1462 阅读 · 0 评论