![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
spider
施然笑
故天将降大任于斯人也,必先苦其心志,劳其筋骨,饿其体肤。
展开
-
模拟登陆豆瓣,发帖和回复code
from bs4 import BeautifulSoup import requests from html.parser import HTMLParser from PIL import Image#模拟登陆豆瓣class MomNi(): #初始化 def init(self): self.header = { ‘User原创 2017-08-24 15:42:35 · 598 阅读 · 0 评论 -
简单pandas存入
import requestsfrom bs4 import BeautifulSoupimport pandasurl = 'http://www.imsdn.cn/'#解析网址re = requests.get(url)soup = BeautifulSoup(re.text,'lxml').select('#main')#美丽汤方法for i in soup: title原创 2017-08-23 14:09:35 · 223 阅读 · 0 评论 -
解析大乐透,预测股票信息入库
import requestsfrom bs4 import BeautifulSoupimport pymongo#解析大乐透彩票class Daoletou(): #得到1-2页的网址 def __init__(self): self.list = [] for i in range(1,4): self.url =原创 2017-08-23 14:05:25 · 1214 阅读 · 1 评论 -
Git Hub上传code
Git Hub 上传本文讲解的是已有Git hub 账号 ,只限于上传code。(下载Git程序,在程序下输入命令执行) 1,切换到 文件所在的目录下面2, git init (初始化 git)3, git add -A (添加文件(A,全部文件))4,git -status 查看上传状态5, git commit -m “你将要执行的操作(任意)”6,git remote add ori原创 2017-08-15 20:48:45 · 545 阅读 · 0 评论 -
md5 简单应用
例子:import hashlib # 导入模块hashlib应用md5模块首先import hashlib#你要加密的内容md_str = ['666','python','博主']def md5Encode(s): #创建md5对象 md_m = hashlib.md5() # 只接收byte格式的文本,加密文本 md_m.update(s) #返回加原创 2017-08-22 19:52:07 · 205 阅读 · 0 评论 -
Python中单下划线,双下划线,俩头下划线的区别。
示例>>> class student(object): __name = 0 _sex = 'male'>>> student.__dict__mappingproxy({'__module__': '__main__', '_student__name': 0, '_sex': 'male', '__dict__': <attribute '__dict__' of原创 2017-08-24 19:02:51 · 2476 阅读 · 0 评论 -
爬取网站使用代理IP
当访问网页过于频繁时,为防止IP被封。所以使用代理IP转载 2017-08-17 09:37:06 · 7972 阅读 · 0 评论 -
pycharm 安装
pycharm注册码。 以方便您更好的使用pycharm打开激活窗口 2、选择 Activate new license with: License server (用license server 激活) 3、在 License sever address 处填入 http://xidea.online 4、点击 Activate 进行认证。 5、认证完成就可以使用了。原创 2017-08-16 19:32:06 · 558 阅读 · 0 评论 -
使用scrapy 抓取顶点小说
# -- coding: utf-8 -- import scrapy from urllib import parse from scrapy import Request from ding.items import DingItemscrapy spider爬取部分 #将要获取的网址 class DingdianSpider(scrapy.Spider):name = 'dingd原创 2017-08-15 19:46:39 · 644 阅读 · 0 评论 -
selenium 简单应用
selenium滚动条drive = webdriver.Chrome()drive.get('http://www.oschina.net/blog')time.sleep(10)for i in range(3): drive.execute_script("window.scrollTo(0,document.body.scrollHeight); var lenOfpage=d原创 2017-09-19 10:24:59 · 328 阅读 · 0 评论