自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 论文阅读(边缘计算人工智能工业互联网)

7.15架构基于边缘计算和人工智能,工业物联网传感器是指设备制造工厂内的状态监测传感器数据-振动、温度、相对湿度和气压。

2022-07-15 18:22:23 495 1

原创 人工神经网络

神经网络神经元的数学模型\rule[-0pt]{13cm}{0.05em}\qquad人工神经网络的本源是人工智能的仿生学派,有两种学派在人工智能诞生以来此消彼长。第一种学派(仿生学派)认为人工智能模拟的是人类大脑对于世界的认识,因此,研究大脑认知机理,总结大脑处理信息的方式是实现人工智能的先决条件。他们认为计算机算法只有深入的模拟大脑的认知机制和信息处理方式才能最终实现人工智能。\qquad而另一种学派(数理学派)认为在现在以及可预见的未来,我们无法完全了解人脑的认知机制,另一方面计算机与人脑具有

2022-03-28 16:55:12 921

原创 支持向量机知识补充

SVM概述\rule[-0pt]{9cm}{0.05em}⋅\cdot⋅支持向量机在本质上就是一个二分类模型,基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机。⋅\cdot⋅支持向量机还包括和技巧,这使它成为实质上的非线性分类器⋅\cdot⋅支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。支持向量机的学习算法是求解凸二次规划的最优算法。SVM分类\rule[-0pt]{9cm}{0.05em}⋅\cdo

2022-03-23 16:39:03 1877

原创 大数据技术原理与应用(一)

目前学完了机器学习实战这本书,感觉可以尝试着啃一下西瓜书,虽然现在对如何学习西瓜书还没有一个大概的思路和想法,但是所谓是车到山前必有路,相信在学习的过程中可以发现适合自己的学习方式。...

2022-03-14 15:18:16 3641

原创 西瓜书第六章课后题

本文章有的是自己做的,有的是参考其他人的答案,毕竟能力有限,完全使用的放上原博主的博客,仅做自己个人学习使用。如有冒犯和侵权,本人会立刻进行删除,感谢这些能做出来的大神。6.1试证明样本空间中任一点xxx到超平面(w,b)(w,b)(w,b)的距离为式6.2r=∣wTx+b∣∣∣w∣∣(6.2)r=\frac{|w^Tx+b|}{||w||} (6.2)r=∣∣w∣∣∣wTx+b∣​(6.2)答:①设超平面为wT+b=0w^T+b=0wT+b=0,其法向量为www,设空间中一点为

2021-11-23 20:54:17 2459 2

原创 markdown

#一级标题

2021-11-18 16:47:08 187

原创 Python机器学习实战(十四)

其他工具利用PCA来简化数据对数据进行简化的原因:1.使得数据集更易使用2.降低很多算法的计算开销3.去除噪声4.使得结果易懂这里我们先关注未标注数据上的降维技术。该技术同时也可以用用于已标注的数据。第一种降维的方法称为主成分分析(PCA)在PCA中,数据从原来的坐标系转换到了新的坐标系,新坐标系的选择是有数据本身决定的。第一个新坐标轴选择的是原始数据中方差最大的方向,第二新坐标轴的选择和第一个坐标轴正交且具有最大方差的方向。该过程一直重复,重复次数为原始数据中特征的数目。.

2021-10-30 23:04:10 910

原创 Python机器学习日记(十三)

前面的内容都是监督学习,接下来进行无监督学习。聚类:聚类是一种无监督的学习,他将相似的对象归到同一个簇中。他有点像全自动分类,聚类方法几乎可以应用于所有的对象,簇内的对象越相似,聚类的效果越好。簇识别:簇识别给出聚类结果的含义。假定有一些数据,现在将相似的数据归到一起,簇识别会告诉我们这些簇到底都是什么聚类与分类的最大不同在于,分类的目标事先已知,而聚类产生的结果与分类相同,只是类别没有预先定义。K-均值聚类算法优点:容易实现缺点:可能收敛到局部最小值,在大规模数据上收敛较慢。使

2021-10-29 16:52:47 578

原创 Python机器学习日记(十二)

树回归树回归的有点事可以对复杂和非线性的数据建模,缺点则是结果不易理解,使用于数值型和标称型数据。一般来说树的构建算法是ID3,每次选取当前最佳的特征来分割数据,并按该特征的所有可能的取值来切分。如果一个特征有4种取值,那么数据将被截成4份。另一种是二元切分法,每次把数据集切成两份,如果数据的某特征值等于切分所要求的值,那么这些数据就进入左子树,反之进入右子树。ID3算法还不能直接处理连续型特征,需要转换成离散型。但这种准换过程会破坏连续性变量的内在性质。二元切分法易于对书构建过程进行调整已处理连.

2021-10-26 19:16:21 225

原创 Python机器学习日记(十一)

回归的目的是预测数值型的目标值。一句输入写出一个目标值得计算公式就是所谓的回归方程,求回归系数的过程就是回归。一旦有了这些回归系数,在给定输入,做预测就非常容易了。具体做法是用回归系数乘以输入值,再将结果全部加到一起,就得到了预测值。怎样从一大堆数据里求出回归方程呢?嘉定输入数据存放在矩阵x中,而回归系数存放在向量w中,那么对于给定的数据...

2021-10-25 17:14:16 273

原创 Python机器学习日记(十)

利用AdaBoost元算法提高分类性能这里解除了一个新概念-元算法。元算法是对其他算法进行组合的一种方式,其中AdaBoost是最流行的元算法。接下来会建立一个单层决策树分类器,并且在一个复杂数据集上应用该分类器,来了解该算法是如何迅速超越其他分类器的。我们可以将不同的分类器进行组合,这种租和结果则被称为集成方法或元算法。AdaBoost的优点是繁华错误率低,易编码,可以应用在大部分分类器上,无参数调整。缺点是对离群点敏感。适用数据类型:数值型和标称型数据。bagging:基于数据.

2021-10-24 23:47:22 2552

原创 Python机器学习日记(九)

Logistic回归----一种最优化算法根据现有数据对分类边界线建立 回归公式,以此进行分类。“回归”一词源于最佳拟合,表示要找到最佳拟合参数集。训练分类器时的做法就是寻找最佳拟合参数。我们想要的函数应该是,能接受所有的输入然后预测出类别。例如在两个类的情况下,上述函数输出0或1。该函数称为海维赛德阶跃函数或者直接成为单位阶跃函数。但是该函数在跳跃点上从0瞬间跳跃到1,这个瞬间跳跃过程有时很难处理,但是另一个函数也有类似的性质,且更容易处理,也就是Sigmoid函数 ...

2021-10-22 16:30:40 137

原创 Python机器学习日记(八)

神经网络“多层感知器”--MLP算法,也被称为前馈神经网络。首先看一下一个线性模型的一般公式: y^ = w[0]*x[0]+w[1]*x[1]+...+w[p]*x[p]+b其中y^表示对y的估计值,x[0]到x[p]是样本特征值,w表示每个特征值的权重,y-hat可以看成是所有特征值的加权求和。...

2021-10-21 22:32:16 219

原创 最优化学习(一)

增加了学习任务,算法最优化,根据老师推荐购买了《最优化:建模,算法与理论这本书》,接下来进行学习。不知道应该怎样具体进行学习,目前的打算是遇到不会的就搞明白,后边学习模式是否需要改变再做打算。不懂的知识点会用块引用进行标注,代码应该会在pcharm中进行实现,如果需要再进行MATLAB的学习。s.t.代表约束条件在线性方程求解中,比如信号传输过程中,真正有用的解是所谓的“稀疏解”。压缩感知:通过部分信息恢复全部信息的解决方案。高斯分布:又称为正态分布,若随机变量X服从一个数学期望为μ、

2021-10-15 15:50:47 1207

原创 Python机器学习日记(七)

支持向量机SVM的核函数在SVM算法中,徐连模型的过程实际上是对每个数据点对于数据分类决定边界的重要性进行判断。在训练数据集中,只有一部分数据对于边界的确定是有帮助的,这些数据被称为“支持向量”import numpy as npimport matplotlib.pyplot as pltfrom sklearn import svmfrom sklearn.datasets import make_blobsX,y = make_blobs(n_samples=50,centers=

2021-09-28 20:49:16 884

原创 Python机器学习(六)

先准备数据,再准备分类器,max_depth参数就是决策树的深度。import numpy as npimport matplotlib.pyplot as pltfrom matplotlib.colors import ListedColormapfrom sklearn import tree,datasetsfrom sklearn.model_selection import train_test_splitwine = datasets.load_wine()X = wine

2021-09-25 09:45:28 1746

原创 Python机器学习日记(五)

朴素贝叶斯eg.降水概率为0.5-----P(A)堵车概率为0.8----P(B)下雨且堵车概率为0.95---P(B|A)看到堵车后下雨的概率 P(A|B)=(P(B|A)*P(A))/P(B) = 0.59import numpy as npX = np.array([[0,1,0,1], [1,1,1,0], [0,1,1,0], [0,0,0,1], [0,1,1,0],

2021-09-24 11:45:51 740

原创 Python机器学习日记(四)

回到基础的这本书,进行回归的学习线性模型import numpy as npimport matplotlib.pyplot as pltx = np.linspace(-5,5,100)y = 0.5*x+3plt.plot(x,y,c='orange')plt.title('Straight Line')plt.show()import matplotlib.pyplot as pltimport numpy as npfrom sklearn.linear_m

2021-09-22 14:57:18 721

原创 Python机器学习(三)

刚才开会见了导师,老师的水平有点超出我的预期... 我得抓紧时间补了我靠。今天说老师的研究方向更偏向于网络一点,我这学机器学习是不是作用不大啊。不过没有说白学的知识,以后可能更多精力放在网页这一块儿。说现在主要在研究边缘算法,一会儿看看是什么东西,但是我还是想先把K最邻近算法这一块儿研究明白吧。开始。...

2021-09-18 17:43:00 532

原创 Python机器学习日记(二)

我裂开,真就裂开,为啥刚开始上学就让发论文参加比赛啊,这儿还啥都不会,想躺平都不给机会啊。现在学K最临近算法处理多元分类任务data2 = make_blobs(n_samples=500,centers=5,random_state=8)x2,y2=data2plt.scatter(x2[:,0],x2[:,1],c=y2,cmap=plt.cm.spring,edgecolors='k')plt.show()先搞一个数据类型的数量和样本量多一点的。难度大的地方在于有一些重合的点。

2021-09-18 13:08:55 380

原创 Python 机器学习日记(一)

纯0基础,只是想提升自己,啥也不会,只会抄。知识很浅薄,学到的一点一点往里添加,不懂就查,懂了自己写。2021.9.15K最邻近算法KNN分类器KNN学习(K-Nearest Neighbor algorithm,K最邻近方法 )是一种统计分类器,对数据的特征变量的筛选尤其有效。KNN的基本思想是:输入没有标签(标注数据的类别),即没有经过分类的新数据,首先提取新数据的特征并与測试集中的每一个数据特征进行比較;然后从測试集中提取K个最邻近(最类似)的数据特征标签,统计这K个最邻近数据中出现次

2021-09-15 17:34:57 1302 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除