吴恩达机器学习作业一python实现
图:数据的一些统计量
图:数据的散点图
计算代价函数:
def compute_cost(X,y,theta):
inner = np.power(((X.dot(theta.T))-y),2)
return sum(inner)/(2*len(X))
梯度下降法:
def gradientDescent(X, y, theta, alpha, epoch=1000):
'''return theta, cost'''
temp = np.arra..
原创
2020-11-07 22:16:58 ·
712 阅读 ·
2 评论