python3 [爬虫实战] 微博爬虫京东客服之Selenium + Chrom浏览器的使用(上)

先暂时记录一下

首先 Chrom浏览器一定要匹配好, 不能在百度搜索中下载最新的谷歌浏览器,我现在下的是版本50的浏览器。匹配的chromedriver.exe 是2.9的。32位的同样也使用64位的。

需要把chromedriver.exe 安装在谷歌浏览器的安装目录下,路径是:C:\Program Files (x86)\Google\Chrome\Application

与chrome.exe是同一个目录级别, 最后再把该路径设置在环境变量中C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe

上面的是一个大坑,因为之前用的一直是PhantomJS 没有界面的浏览器


其二:简单的爬取微博内容,很坑比的微博,登陆验证还需要图片。

到这里就懵逼了。

一开始简单的使用搜索功能,单个元素的使用直接用chrome下的xpath直接用就行

后面加了些自动登录的代码,到登录那里还需要验证输入图片上的玩意

直接GG

现在给出代码片吧,里面分两块内容,有兴趣的可以稍微研究研究

# -*- coding: utf-8 -*-
# @Time    : 2017/8/21 21:52
# 
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值