机器学习
文章平均质量分 92
是大糊涂不聪明
写博客的目的是为了方便自己,经常找不到需要的程序,记本子上又容易丢...
如果有错误的地方啊,麻烦指出来哈
展开
-
vs2017永久配置opencv4.0.0环境
1.opencv4.0.0的安装和配置过程首先到官网下载目前最新版的opencv,网址是:opencv官网2.下载完就是安装,安装到自己的本地路径上,路径名尽量用英文名。安装完之后就如下图所示。3.配置环境变量。①打开桌面上的“此电脑”②在窗口中的空白处右键点击“属性”③点击左边的“高级系统设置”④点击下方的“环境变量”⑤在弹出的窗口中找到“系统变量”中的“Path”,双击该选项⑥在弹出的窗口中点击新建,根据你的本地路径进行配置。比如笔者的opencv路径是F,那么在此处笔者填入的路原创 2021-08-10 19:47:40 · 2201 阅读 · 6 评论 -
skimage.feature.graycomatrix用法详细介绍
图像处理库scikits-image已经支持计算灰度共生矩阵和提取GLCM的纹理属性contrast、dissimilarity、homogeneity、ASM、energy、correlation首先了解一下灰度共生矩阵是什么,下面介绍摘自百度百科。百度百科:灰度共生矩阵灰度共生矩阵,指的是一种通过研究灰度的空间相关特性来描述纹理的常用方法。1973年Haralick等人提出了用灰度共生矩阵来描述纹理特征。由于纹理是由灰度分布在空间位置上反复出现而形成的,因而在图像空间中相隔某距离的两像素之间会存在转载 2021-06-29 22:07:28 · 5300 阅读 · 0 评论 -
吴恩达老师机器学习笔记第三周
1.逻辑回归(Logistic Regression)在这段视频中,我要给你展示假设函数的表达式,也就是说,在分类问题中,要用什么样的函数来表示我们的假设。此前我们说过,希望我们的分类器的输出值在0和1之间,因此,我们希望想出一个满足某个性质的假设函数,这个性质是它的预测值要在0和1之间。回顾在一开始提到的乳腺癌分类问题,我们可以用线性回归的方法求出适合数据的一条直线:根据线性回归模型我们只能预测连续的值,然而对于分类问题,我们需要输出0或1,我们可以预测:当hθ(x)>=0.5{h_\th原创 2020-12-03 21:09:44 · 147 阅读 · 0 评论 -
吴恩达老师机器学习笔记第二周
多变量线性回归(Linear Regression with Multiple Variables)4.1 多维特征目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,...,xn)\left( {x_{1}},{x_{2}},...,{x_{n}} \right)(x1,x2,...,xn)。增添更多特征后,我们引入一系列新的注释:nnn 代表特征的数量x(i){x^{\left( i \原创 2020-12-03 20:47:52 · 158 阅读 · 0 评论 -
吴恩达老师机器学习笔记第一周
内容来源:黄海广的github因为github上的公式都是latex的的,看的不舒服就搬运一下,在这里能看到公式2.3 代价函数的直观理解I在上一个视频中,我们给了代价函数一个数学上的定义。在这个视频里,让我们通过一些例子来获取一些直观的感受,看看代价函数到底是在干什么。2.4 代价函数的直观理解II这节课中,我们将更深入地学习代价函数的作用,这段视频的内容假设你已经认识等高线图,如果你对等高线图不太熟悉的话,这段视频中的某些内容你可能会听不懂,但不要紧,如果你跳过这段视频的话,也没什么关系原创 2020-12-03 20:29:11 · 119 阅读 · 0 评论 -
吴恩达老师机器学习
拟合一条直线h(x)如何选择参数最好的代表这条曲线这个Cost function 也叫 Squared error cost function误差的平方和对于大多数回归问题来说,都是合理的代价函数:目标函数:J(θ\thetaθ) 是一个关于θ\thetaθ的函数这里做简化了以后,显然是二次的函数,画图后就是抛物线简化版本的目标 :就是最小化这个代价函数时得到的参数这里是为了可视化,所以才通过描点来作图的从图中可以看出来,当θ\thetaθ1= 0,整个值就是最小的.原创 2020-12-03 16:30:27 · 139 阅读 · 0 评论