自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 智能工业机器人作业四:Exercise 4 Line-based Extended Kalman Filter for robot localization

正如在之前的练习中所指出的,平台位置的知识对许多机器人应用程序至关重要,我们通过一辆自动驾驶汽车将仓库内的货物从一个地方拖到另一个地方来推动这一点。在这种情况下,练习3演示了如何获得用扫描测距仪感知的线性结构的更抽象的表示。这项练习将表明,给定该表示中的线性特征图,机器人可以根据其感知的线性结构进行定位。本练习严格遵循了[1,第331-342]页中给出的例子。我们强烈建议您在参加练习之前阅读相应的页面,并在整个练习过程中查阅本文档寻求建议。

2024-04-19 15:28:10 1613 3

原创 用代码定义单链表

是用来定义链表节点中的指针,指向下一个节点。这是单链表中常见的设计。单链表中的每个节点都包含两个部分:数据域和指针域。数据域用于存储节点的数据,而指针域用于指向下一个节点,从而将节点串联起来形成链表。要表示一个单链表的时候,只需要定义一个头指针L,指向单链表的第一个节点。

2024-03-29 16:40:16 190 1

原创 线性表的基本操作

顺序表

2024-03-29 12:21:55 322 1

原创 图像基本操作与图像变换

(7)图像处理中,经常会用到下采样,将 gray 进行1 2 × 1 2 下采样,即行方向每两个像素采 样 1 个,列方向每两个像素采样 1 个,显示下采样后的图像 gray_ds。(5)将 gray 转换为[0,1]之间的浮点数图像 grayfloat,在此基础上叠加均值为 0,方差 为 0.01 的高斯噪声,显示受噪声污染的图像 gray_noisy;(1)读入图像 Lenna.png 为 im,显示该图像红色、绿色、蓝色通道(显示为灰度图像);(2)提取(100,20)位置的颜色值;

2024-03-27 11:38:06 173

原创 C均值算法实例(C—means)[K均值算法]

C均值算法又称K均值算法,是一种无监督学习方法,用于将数据集分成K个不同的簇,每个簇内的数据点相似度较高。其原理如下:首先,从数据集中随机选择K个点作为初始质心,这些质心代表了簇的中心点。然后,将每个数据点分配到最近的质心所代表的簇,通常使用欧氏距离来计算距离。接下来,重新计算每个簇的质心,将簇中所有数据点的均值作为新的质心。重复上述两个步骤,直到质心不再发生显著变化或达到预定的迭代次数为止。最终,K均值算法将数据集分成K个簇,每个簇内的数据点相似度较高,而不同簇之间的数据点相似度较低。

2023-09-21 20:29:27 1107

原创 感知器的设计实现

(1)学习和理解感知器的基本原理。(2)利用sklearn和NumPy两种方法设计实现感知器。(3)将设计的感知器对一定数据进行分析,并将结果可视化,验证算法的正确性。

2023-09-19 09:42:35 183

原创 主成分分析的设计实现

图像和特征矩阵的维度是可以相互对应的,即一个特征对应一个特征向量,对应一条坐标轴。所以,三维及以下的特征矩阵,是可以被可视化的,这可以帮助我们很快地理解数据的分布,而三维以上特征矩阵的则不能被可视化,数据的性质也就比较难理解。PCA(principal components analysis)即主成分分析技术,又称主分量分析,旨在利用降维的思想,把多指标转化为少数几个综合指标。将设计的主成分分析对鸢尾花数据集进行处理,将数据降维为二维,并在平面中画出样本点的分布。降维算法中的“降维”,指的是。

2023-09-18 15:50:43 74

原创 (iris鸢尾花数据集)k-近邻法的设计实现

它的思路是这样,如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN的初始函数(构造函数)的参数和默认参数是(n_neighbors=5,weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, metric=’minkowski’,metric_params=None, n_jobs=1, **kwargs)函数,将测试数据集的实际分类(真实标签)和模型预测的分类一一配对。

2023-09-18 09:33:44 262

原创 K-means 算法实现

首先,直接绘制该数据集的散点图,此时不考虑该数据集在生成时对应的标签。此处为方便大家理解,产生的数据集包含了标签信息。可以用来生成聚类任务的数据集,它会返回产生的数据集以及相应标签。接下来,我们根据生成数据集时对应的标签,按照不同颜色绘制散点图。类后的数据散点图,可以发现,存在较多的样本点被聚到了错误。算法是用于处理无标签数据集的,也就是,在实际使用。表示随机生成器的种子,可以固定生成的数据,给定之。表示每个样本的特征数,也表示数据的维度,后,每次生成的数据集就是固定的。查看产生的数据集的维度信息。

2023-07-05 10:16:23 217

原创 python使用sklearn进行逻辑回归

在逻辑回归部分,使用的数据集为自定义的房屋租金和面积相关的数据集,在实验初始阶段会。标准化数据,保证每个维度的特征数据方差为。使得预测结果不会被某些维度过。查看标准化处理后的数据。

2023-07-03 14:09:17 402

原创 通过梯度下降法实现线性回归算法

while not np.all(np.absolute(gradient) <= 1e-5): #梯度小于 0.00001 时计算结束。gradient = generate_gradient(X, theta, y) #计算梯度。Jthetas= [] # 记录代价函数 J(θ)的变化趋势,验证梯度下降是否运行正确。# 计算梯度,采用矩阵计算 1/m ∑(((h(x^i)-y^i)) x_j^i)# 计算损失函数,等于真实值与预测值差的平方(y^i-h(x^i))^2。

2023-07-03 11:55:13 252 2

原创 基于scikit-learn调用实现线性回归

x= np.array([121, 125, 131, 141, 152, 161]).reshape(-1,1)#x 是房屋面积,作为特征。y = np.array([300,350,425,405,496,517])#y 是房屋的。testX = np.array([[130]])#测试样本,面积为130。plt.xlabel("area")#添加横坐标面积。plt.xlabel("area")#添加横坐标面积。lr.fit(x,y)#模型在数据上训练。print('截距:',b)

2023-07-03 11:27:29 1059 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除