笔记
文章平均质量分 69
彼得·伊里奇·柴可夫斯基
这个作者很懒,什么都没留下…
展开
-
运筹学05
线性规划问题的一般形式一般情况:z=f(x1x2x3...xn )=c1x1+c2x2+...+cnxn (Ci∈R)z=f\left( x_1x_2x_3... x_{n\,\,} \right) =c_1x_1+c_2x_2+...+c_nx_n\,\, \left( C_i\in R \right)z=f(x1x2x3...xn)=c1x1+c2x2+...+cnxn(Ci∈R){a11x1+a12x2+...+a1nxn=(≤,≥)b1...an1x1+an2x2+.原创 2021-07-22 11:51:46 · 107 阅读 · 0 评论 -
clustering
聚类算法的步骤(k-means){c(i)来存储与第i个实例(xi)数据最近的聚类中心的索引μk 聚类中心μc(i)代表与????(xi)最近的聚类中心点。_{\begin{cases} c^{\left( i \right)}来存储与\text{第}i个实例\text{(}x_i\text{)}数据最近的聚类中心的索引\\ \mu _k\,\,\text{聚类中心}\\ \mu _{c^{\left( i \right)}}代表与????(x_i)最近的聚类中心点。\\\end{cases}}原创 2021-07-20 10:29:17 · 76 阅读 · 0 评论 -
kernels SVM
目标:拟合非线性边界想法:拟合复杂多项式{y =θ0+θ1f1+θ2f2+θ3f3+θ4f4f1=x1,f2=x2,f3=x1x2,d4=x42\begin{cases} y\,\,=\theta _0+\theta _1f_1+\theta _2f_2+\theta _3f_3+\theta _4f_4\\ f_1=x_1, f_2=x_2,f_3=x_1x_2,d_4=x_{4}^{2}\\\end{cases}{y=θ0+θ1f1+θ2f2+θ3f3+θ4f4f1=x.原创 2021-07-19 19:43:36 · 103 阅读 · 0 评论 -
记录logistics回归实战(梯度下降,终止条件:迭代次数大于某值)0717
预测学生是否被大学录取。根据两次考试的结果来决定每个申请人的录取机会import numpy as npimport pandas as pdimport matplotlib.pyplot as plt%matplotlib inlinepath = './data/LogiReg_data.txt'origin =pd.read_csv(path, header=None, names=['Exam 1', 'Exam 2', 'Admitted'])red = origin[orig原创 2021-07-18 09:01:54 · 584 阅读 · 0 评论 -
运筹学04(线性规划&概念&建模&标准型)
概念线性规划问题在线性约束条件下,寻找线性约束条件的最优解用KKT定理解决线性规划问题(一)规范化:“代数式<=0”原创 2021-07-14 11:26:52 · 770 阅读 · 0 评论 -
运筹学03(线代)
目的解线性方程组,未知数次数是1的方程有无解?怎么解?解是啥?经典想法(略过)3blown1blue方法论通过矩阵提取信息,然后折腾它,矩阵乘法是一种最基本的方式提取系统信息 折腾 判断解的情况,然后解它矩阵是一种提取信息的手段,是按照一定排列顺序的数表矩阵乘法==== 数表乘以数表,数乘以数,总信息不变怎么看待矩阵(秩的概念&线性相关)略过对于矩阵而言,任意最大满秩子式为基行列式行列式本质是种计算法则二阶行列式的意义是平行四边形的面积n阶行列式,n维原创 2021-07-13 23:38:49 · 445 阅读 · 0 评论 -
机器学习笔记02(多元线性回归&logistics回归&正则化)
文章目录01 引言(多元线性回归)多元线性回归梯度下降梯度下降技巧01-特征缩放梯度下降技巧02-学习率与终止迭代条件用多项式回归模型02 Normal Equation法推导过程Normal Equation法与梯度下降法比较01 引言(多元线性回归)“多元线性回归本质上与单元变量线性回归没太大区别”增添更多特征后,我们引入一系列新的注释:引入多元变量后,我们直接把原来的函数简写为多元线性回归梯度下降多元变量的线性回归的梯度下降与一元的没什么区别梯度下降技巧01-特征缩放在我们面对原创 2021-07-12 21:36:44 · 2285 阅读 · 0 评论 -
机器学习笔记01(基础概念与线性回归&梯度下降)
文章目录01 概念基本概念监督学习回归&分类&其他总结无监督学习两种列举的无监督学习02 正题:单变量线性回归对一般回归问题的标记代价函数损失函数的图形化表示损失函数存在的意义梯度下降梯度下降的表现形式01 概念什么是机器学习?T:任务,目的,结果E:训练集,经验值h:假设,方程p:置信区间一个程序被认为能从经验E中学习, 解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。我认为经验E就是程序上万次的自我练习的经验而任务,T是原创 2021-07-12 20:46:43 · 484 阅读 · 0 评论 -
爬虫(不完整)
爬虫基础pythonhtml分布式数据库html一般html包含head和bodyrequest属性的urlopenfrom urllib.request import urlopenhtml=urlopen("https://www.baidu.com/").read().decode("utf-8")print(html)正则表达式其实不难https://deerchao.cn/tutorials/regex/regex.htm1\W 匹配字母或数字或下划线或汉字原创 2021-04-15 16:53:08 · 86 阅读 · 0 评论 -
线性回归中为什么似然估计要取最小值
线性回归推导过程学习线性回归基本公式:y(i)=θTx(i)+ε(i) y^{(i)} = \theta^{T}x^{(i)}+\varepsilon^{(i)}y(i)=θTx(i)+ε(i)其中ε(i)\varepsilon^{(i)}ε(i)为误差,我们一般认定误差ε(i)\varepsilon^{(i)}ε(i)是服从均值为000方差为σ2\sigma ^2σ2的高斯分布。为什么均值为000?因为θTx(i)\theta^{T}x^{(i)}θTx(i)展开为:hθ(x)=θ0+θ1x原创 2020-08-20 11:02:05 · 2462 阅读 · 0 评论 -
笔记--邹老师的课
第一节课笔记主要学习内容机器学习的概念机器学习的数学基础知识机器学习的概念什么是机器学习对于某给定的任务T,在合理的性能度量方案P的前提下,某计算机程序可以自主学习任务T的经验E;随着提供合适、优质、大量的经验E,该程序对于任务T的性能逐步提高。机器学习对象: 任务-经验-性能任务不断进行,经验的积累会带来计算性能的提升人类的学习从无知到有知: 掌握接受信息的特征有监督学习:判定“月亮”无监督学习:创造“阅兵”增强学习:走路、踢球半监督学习机器学习可以解决给定数原创 2020-08-05 01:23:38 · 219 阅读 · 0 评论