[机器学习][3]--口袋算法与线性回归
今天将会接着第一篇文章的PLA算法接着讲下去,将会去优化PLA算法。
首先有个问题需要说一下,一般来说,如果要测试某个模型的可用性,最好就是利用真实数据。但是由于我没能找到好的数据来做测试,所以我下面就用随机生成的数据来做为例子了
说一下参考文章:加州理工学院公开课:机器学习与数据挖掘_线性模型
首先,我们看一下PLA算法的问题:
计算量太大,上次就20组数据不到,就要计算300+次
下面我们就一步一步看看如何来优化
1.先生成我们要用的数据
首先有个问题需要说一下,一般来说,如果要测试某个模型的可用性,最好就是利用真实数据。但是由于我没能找到好的数据来做测试,所以我下面就用随机生成的数据来做为例子了
说一下参考文章:加州理工学院公开课:机器学习与数据挖掘_线性模型
首先,我们看一下PLA算法的问题:
计算量太大,上次就20组数据不到,就要计算300+次
下面我们就一步一步看看如何来优化
1.先生成我们要用的数据
downr = Table[{xr = RandomReal[5],
yr = RandomReal[5 - xr] + RandomReal[.5], -1}, {200}];
upr = Table[{xr = RandomReal[5], yr = RandomReal[{5 - xr, 5}],
1}, {150}];
2.接着我们把图画出来
data = Join[downr, upr];
temp = data[[All, {1, 2}]];
p1 = ListPlot[
Table[Style[temp[[i]], Hue[.25*data[[i, 3]] + .75]], {i, 1,
Length[data]}],
AxesOrigin ->