- 博客(3)
- 收藏
- 关注
原创 python抓取某代理网站代理IP及端口
#coding:utf8 import httplib from bs4 import BeautifulSoup import re import sys reload(sys) sys.setdefaultencoding('utf-8') ip_L =[] port_L = [] def urlList(): #组成url列表 L = ['/proxy/index.shtml'] fo
2015-09-25 15:23:11 465
原创 python爬虫,抓取百度指定内容的url链接
这并没有什么卵用,我只是拿来练习写的~ #coding:utf8 #获取百度搜索python后 得到网站的url import httplib from bs4 import BeautifulSoup import re def conn(url): nameList = [] connect = httplib.HTTPConnection(url,80,timeout=30)
2015-09-25 15:19:52 1788
原创 关于python里UnicodeEncodeError的问题
今天写爬虫的时候,用BeautifulSoup对文档做处理 html = open('index-1.txt').read() soup = BeautifulSoup(html) print soup.prettify() 发现如果文档中有汉字,当调用prettify方法时,会报错: UnicodeEncodeError: 'ascii' codec can't encode char
2015-09-25 10:46:08 388
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人