爬虫
文章平均质量分 62
挽_风
这个作者很懒,什么都没留下…
展开
-
爬新浪新闻
import requests from bs4 import BeautifulSoup res = requests.get('http://news.sina.com.cn/china/') res.encoding = 'utf-8' soup = BeautifulSoup(res.text,'html.parser') for news in soup.select('.news-it原创 2016-09-12 21:44:31 · 384 阅读 · 0 评论 -
urllib2下载器网页的三种方法
python网络爬虫第一步:#coding:utf8 import urllib2 import cookielib url = 'https://www.baidu.com/' print("第一种方法") response1 = urllib2.urlopen(url) print response1.getcode() print len(response1.read()) print(原创 2016-08-02 16:04:08 · 980 阅读 · 0 评论