环境:
Python 3.6
PyCharm 2017 3.3
参考博文:
Python爬虫实战入门
http://zmister.com/archives/81.html
*先通过PyCharm的setting装点三方库
HTTP请求:requests
解析HTML响应:BeautifulSoup
pymongo
selenuim
Pillow
pytesseract
tesseract
lxml (原博文漏了)
新手-爬取腾讯新闻
1 寻找数据特征
右键标题–>审查元素(检查)
特征:div text –>em f14 –>a linkto
2 编写爬取代码
# coding:utf-8
# 引入相关模块
import requests
from bs4 import BeautifulSoup
url = "http://news.qq.com/"
# 请求腾讯新闻的URL,获取其text文本
wbdata = requests.get(url).text
# 对获取到的文本进行解析
#也可以用自带的html.parser进行:soup = BeautifulSoup(wbdata,'html.parser')
soup = BeautifulSoup(wbdata,'lxml')
# 从解析文件中通过select选择器定位指定的元素,返回一个列表
news_titles = soup.select("div.text > em.f14 > a.linkto")
# 对返回的列表进行遍历
for n in news_titles:
# 提取出标题和链接信息
title = n.get_text()
link = n.get("href")
data = {
'标题':title,
'链接':link
}
print(data)