- 博客(5)
- 资源 (3)
- 收藏
- 关注
原创 用python发布一条微博
开始学爬虫是觉得爬虫很炫酷,很好玩,慢慢发现爬虫越来越好玩,前面都是一些小试牛刀,是在学习的一个过程。继昨天成功登陆微博之后(python模拟登陆微博),感觉有些小有成就,今天酒足饭饱后又开始玩起来了,悄悄地用程序发了条微博,自我感觉要开始真正玩起来,特来此做一个纪念。其实模拟登陆成功之后,要做啥完全是靠自己的想象了,就像是从鱼缸里最终走到大海的小鱼,到处都是自由的空间。Just ha
2015-09-26 16:19:37 2212 1
原创 python模拟登录新浪微博
1.前言从模拟登陆这件事上,可以看出公司之间的技术水平,对安全的重视程度。之前做过豆瓣的模拟登陆(链接),直接做一个post请求就OK,简直easy. 但是到新浪微博上,这个方法完全行不通,新浪微博简直了!!!各种加密,各种跳转,登陆过程神烦!!!在参考了很多的博文,历经无数次失败之后,终于,我也成功登陆上了!(●'◡'●)2.登陆过程分析我一直用的是chrome浏览器,所
2015-09-25 14:05:13 19938 26
原创 【斯坦福---机器学习】复习笔记之特征选择
本讲大纲:1.VC维(VC dimension) 2.模型选择(model selection) —交叉验证(cross validation) —特征选择(feature selection)1.VC维给定猜想类,定义VC维(Vapnik-Chervonenkis dimension),记作VC(H),表示能够被分开的最大集合的尺寸(如果能够分开任意大的集
2015-09-18 19:38:27 4601
原创 【斯坦福---机器学习】复习笔记之经验风险最小化
这一讲开始将是学习理论(Learning Theory)方面的内容.Bias/variance trade-off(偏差-方差权衡) 回到线性回归问题,如图: 泛化误差(generalization error):可能出现的错误并不再已有的数据集中 上图中,左右两幅图的泛化误差都比较大. 左边是欠拟合(underfit)的,即使能够拟合很大一部分数据,但还是可能出现偏差(bias).
2015-09-16 16:05:56 4009
原创 【斯坦福---机器学习】复习笔记之顺序最小优化算法
本讲大纲:1.核(kernels) 2.软边界(soft margin) 3.SMO算法(SMO algorithm)1.核属性(attributes):原始的输入值(房价的例子中,x,住房的面积) 特征(features):由原始数据映射的一些数据 用来表示特征映射,例如: 用代替x. 定义核为: 是很容易计算的,即使计算的代价很大(高维向量). 在这种设定中,在算法中用一个很高
2015-09-15 11:02:06 4208
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人