全方位指导采集心事网络中的各种数据类型:Python网络数据采集

[点击获取资料提取码:qmy2 ]


#内容提要
本书采用简洁强大的Python语言,介绍了网络数据采集,并为采集新式网络中的各种数据类型提供了全面的指导。第一部分重点介绍网络数据采集的基本原理:如何用Python从网络服务器请求信息,如何对服务器的响应进行基本处理,以及如何以自动化手段与网站进行交互。第二部分介绍如何用网络爬虫测试网站,自动化处理,以及如何通过更多的方式接入网络。本书适合需要采集Web数据的相关软件开发人员和研究人员阅读。


O'Reilly Media通过图书、杂志、在线服务、调查研究和会议等方式传播创新知识。自1978年开始,O'Reilly 一直都是前沿发展的见证者和推动者。超级极客们正在开创着未来,而我们关注真正重要的技术趋势一通过 放大那些“细微的信号”来刺激社会对新科技的应用。作为技术社区中活跃的参与者,O'Reilly的发展充满了对创新的倡导、创造和发扬光大。O'Reilly为软件开发人员带来革命性的“动物书”;创建第-一个商业网站(GNN);组织了影响深远的开放源代码峰会,以至于开源软件运动以此命名;创立了Make杂志,从而成为DIY革命的主要先锋;公司一如既往地通过多种形式缔结信息与人的纽带。O'Reilly的会议和峰会集聚了众多超级极客和高瞻远瞩的商业领袖,共同描绘出开创新产业的革命性思想。作为技术人士获取信息的选择,O'Reilly 现在还将先锋专家的知识传递给普通的计算机用户。无论是通过书籍出版、在线服务或者面授课程,每一项O' Reilly的产品都反映了公司不可动摇的理念一信息是激发 创新的力量。

**业界评论**
“O' Reilly Radar博客有口皆碑。”
- - Wired
"“O'Reilly凭借一系列(真希望当初我也想到了)非凡想法建立了数百万美元的业务。”
——————**Business 20**
“O° Reilly Conference是聚集关键思想领袖的绝对典范。”
——————**CRN**
“一本O'Reilly的书就代表一个有用、有前途、需要学习的主题。”
——————**lrish Times**
“Tim是位特立独行的商人,他不光放眼于最长远、最广阔的视野,并且切实地按照
Yogi Berra的建议去做了:‘ 如果你在路上遇到岔路口,走小路(岔路)。’回顾过去,
Tim似乎每一次都选择了小路,而且有几次都是一闪即逝的机会,尽管大路也不错。”
——————**Linu Joumal**


#目录  · · · · · ·
译者序  
前言  
第一部分 创建爬虫
第1章 初见网络爬虫  
1.1 网络连接  
1.2 BeautifulSoup简介  
1.2.1 安装BeautifulSoup  
1.2.2 运行BeautifulSoup  
1.2.3 可靠的网络连接  
第2章 复杂HTML解析  
2.1 不是一直都要用锤子  
2.2 再端一碗BeautifulSoup  
2.2.1 BeautifulSoup的find()和findAll()  
2.2.2 其他BeautifulSoup对象  
2.2.3 导航树  
2.3 正则表达式  
2.4 正则表达式和BeautifulSoup  
2.5 获取属性  
2.6 Lambda表达式  
2.7 超越BeautifulSoup  
第3章 开始采集  
3.1 遍历单个域名  
3.2 采集整个网站  
3.3 通过互联网采集  
3.4 用Scrapy采集  
第4章 使用API  
4.1 API概述  
4.2 API通用规则  
4.2.1 方法  
4.2.2 验证  
4.3 服务器响应  
4.4 Echo Nest  
4.5 Twitter API 
4.5.1 开始  
4.5.2 几个示例  
4.6 Google API  
4.6.1 开始  
4.6.2 几个示例  
4.7 解析JSON数据  
4.8 回到主题  
4.9 再说一点API  
第5章 存储数据  
5.1 媒体文件
5.2 把数据存储到CSV  
5.3 MySQL  
5.3.1 安装MySQL  
5.3.2 基本命令 
5.3.3 与Python整合  
5.3.4 数据库技术与最佳实践  
5.3.5 MySQL里的“六度空间游戏”  
5.4 Email  
第6章 读取文档  
6.1 文档编码  
6.2 纯文本  
6.3 CSV  
6.4 PDF  
6.5 微软Word和.docx  
第二部分 高级数据采集
第7章 数据清洗  
7.1 编写代码清洗数据  
7.2 数据存储后再清洗  
第8章 自然语言处理  
8.1 概括数据  
8.2 马尔可夫模型  
8.3 自然语言工具包  
8.3.1 安装与设置  
8.3.2 用NLTK做统计分析  
8.3.3 用NLTK做词性分析  
8.4 其他资源  
第9章 穿越网页表单与登录窗口进行采集  
9.1 Python Requests库 
9.2 提交一个基本表单  
9.3 单选按钮、复选框和其他输入  
9.4 提交文件和图像  
9.5 处理登录和cookie  
9.6 其他表单问题  
第10章 采集JavaScript  
10.1 JavaScript简介  
10.2 Ajax和动态HTML  
10.3 处理重定向  
第11章 图像识别与文字处理  
11.1 OCR库概述  
11.1.1 Pillow  
11.1.2 Tesseract  
11.1.3 NumPy  
11.2 处理格式规范的文字  
11.3 读取验证码与训练Tesseract  
11.4 获取验证码提交答案  
第12章 避开采集陷阱  
12.1 道德规范  
12.2 让网络机器人看起来像人类用户  
12.2.1 修改请求头  
12.2.2 处理cookie  
12.2.3 时间就是一切  
12.3 常见表单安全措施  
12.3.1 隐含输入字段值  
12.3.2 避免蜜罐  
12.4 问题检查表  
第13章 用爬虫测试网站  
13.1 测试简介  
13.2 Python单元测试  
13.3 Selenium单元测试  
13.4 Python单元测试与Selenium单元测试的选择  
第14章 远程采集  
14.1 为什么要用远程服务器  
14.1.1 避免IP地址被封杀  
14.1.2 移植性与扩展性  
14.2 Tor代理服务器  
14.3 远程主机  
14.3.1 从网站主机运行  
14.3.2 从云主机运行  
14.4 其他资源  
14.5 勇往直前  
**附录A Python简介**  
**附录B 互联网简介**  
**附录C 网络数据采集的法律与道德约束**  
**作者简介**  
**封面介绍** 
 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值