- 博客(7)
- 收藏
- 关注
原创 处理JS分页加载的网页_recv
# # shark-pager-next# # h3 class:ellipsis# # span class:dy-num fr# # shark-pager-disable-nextfrom selenium import webdriverfrom bs4 import BeautifulSoup as bsimport unittestclass douyu(unittes
2017-10-28 11:11:47 383
原创 糗事百科案例(使用 xpath模块)
通过一个案列先了解下json与python之间的转换关系#json解析库,对应到lxmlimport json#json的解析语法,对应到xpathimport jsonpathimport urllib2url="http://www.lagou.com/lbs/getAllCitySearchLabels.json"headers={"User-Agent":"Mozilla
2017-10-25 15:21:07 712
原创 爬知乎了解BeautifulSoup用法
import requestsfrom bs4 import BeautifulSoupimport timedef captcha(captcha_data): with open("captcha.jpg","wb") as f: f.write(captcha_data) text=raw_input(("请输入验证码:").encode("gb18030")) retur
2017-10-24 11:43:55 1048
原创 lxml库和贴吧图片下载案例
# -*- encoding: UTF-8 -*-import sysreload(sys)sys.setdefaultencoding('utf-8')import urllibimport urllib2from lxml import etree#找出所有帖子的链接def loadPage(url): """ 作用:根据url发送请求,获取服务器响应文件 url:需要
2017-10-20 21:32:15 396
原创 爬虫 内涵段子
import urllib2import urllibimport reclass spilder: def __init__(self): self.page=1#初始页是1 self.switch=True#如果是True就开始爬 def loadpage(self): """下载页面""" print u"正在下载页面...." url="http://ww
2017-10-20 10:46:15 446
原创 爬虫-有道翻译
# !/usr/bin/python# -*- encoding: UTF-8 -*-import urllibimport urllib2headers={"X-Requested-With":"XMLHttpRequest","User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTM
2017-10-14 11:52:06 949
原创 模仿两个 人之间的转账
#!/usr/bin/python# -*- coding: UTF-8 -*-import pymssqlimport sysreload(sys)sys.setdefaultencoding('utf8')import urllib2class TransferMoney(object): def __init__(self,conn): self.conn=conn
2017-10-09 21:27:14 482
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人