- 博客(5)
- 收藏
- 关注
原创 在github上面看到一个抢票软件理解了理解了
Chromedriver这个东西很强可以自动控制你的浏览器,应该能做很多有意义的事情,但是我还没有去试验,正好看到有一个人的文章Chromedriver.exe这个文件直接放在你py脚本的文件同一个目录即可,不用去配置啥的了。...
2018-05-26 23:03:06
4320
原创 2018.2.28
今天学习了用scrapy爬虫,爬去股票数据其中class BaidustocksPipeline(object): def process_item(self, item, spider): return item class BaidustocksInfoPipeline(object): def open_spider(self, spider): ...
2018-02-28 22:18:28
156
原创 2018.2.24股票爬虫
import requests import re from bs4 import BeautifulSoup import traceback def gettext(url): try: r=requests.get(url) r.raise_for_status() r.encoding=r.apparent_encoding ...
2018-02-24 18:03:47
249
原创 2018.2.23淘宝商品信息爬虫
#以下只是爬取一页可以通过for循环的办法来爬取两页三页甚至更多,这是for in 的用法>>>languages = ["C", "C++", "Perl", "Python"] >>> for x in languages:... print (x)... CC++PerlPython>>>i
2018-02-23 21:15:43
458
原创 2018.2.21学习爬虫 爬取最好大学前20
学习中遇到许多问题有些问题现在还没搞明白,希望大神能指正import requests from bs4 import BeautifulSoup import bs4 def gethtmltext(url): try: r=requests.get(url,timeout=30) r.raise_for_status() r.encodi...
2018-02-21 13:48:51
441
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人