- 博客(8)
- 收藏
- 关注
原创 第五个爬虫 python + selenium + phantomjs
学习爬虫提高点工作效率,真的是一步一个坑啊,不过好在工作中的某个环节可以用这个爬虫代替.这个方法应该是比较笨,比较原始的方法了,下一步试试Scrapy + spynner 爬取动态网页.在这里给我这样的小白提个醒吧!1...我用 pyinstaller 给我的python代码打包,我的开始的环境是 (win10 64bit) (python 3.7.1 64bit) ...
2019-01-31 00:55:56 620
原创 第四个爬虫 selenium chrome
import xlrdimport xlwtimport timeimport requestsfrom bs4 import BeautifulSoupfrom selenium import webdriverfrom selenium.webdriver.common.keys import Keysmailnums = []path = 'D:\EMS83Search...
2019-01-23 21:18:21 235
原创 第三个爬虫
import requestsimport pandas as pdfrom bs4 import BeautifulSouplinks = ['https://91.ndd']views = []names = []webs = []pages = []def get_links(): for i in range(2,130): url1 = '...
2019-01-23 21:11:27 183
原创 老菜鸟第二个爬虫,纪念一下!
from urllib import requestfrom bs4 import BeautifulSoupimport xlwtimport timelinks = []webs = []ydm = []yddh = []yddz = []def website(): ws = input('输入网址:') links.append(ws) ...
2019-01-17 22:28:01 148
原创 老小白三个月Python的第一个爬虫
from urllib import requestimport jsonimport xlwt import xlrd import timeimport randomwith xlrd.open_workbook('num.xls','r') as f: sheet1 = f.sheets()[0] nrows = sheet1.nrows yjh =...
2018-12-18 16:14:20 403
原创 7-函数习题
# 111111111111# def hanshu(*tuple1):# total = 0 # for each in tuple1:# total += each# print(total)# hanshu(1,2,3,4,5,6,7)# 22222222222222222# def age(**dict1):# total = 0# for ke...
2018-11-05 14:05:21 385
原创 老电脑安装Lubuntu
一台老i3笔记本,想安装Lubuntu试试它是不是真的很快!下载了Lubuntu 18.04用UltraISO 做了一个U盘镜像,结果出现了 Failed to load ldlinux.c32UltraISO下 HDD+ HDD ZIP 都试了 ,总之就是不能成功引导U盘!百度一下 大概意思就是说 ubuntu 用了新的引导方式,有些软件还不支持,需要用 Win32DiskImager 这个软件...
2018-06-20 21:26:06 7773
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人