selenium使用_自动化测试工具selenium库的使用

本文介绍了如何使用selenium自动化测试工具爬取阿里巴巴平台上的商家信息。通过分析URL参数,实现动态爬取不同关键词的商家列表,处理登录、点击查看详情、异常处理等步骤,最终将数据保存到Excel文件。
摘要由CSDN通过智能技术生成

      最近闲,刚好有位哥问我能不能帮忙自动采集一些数据。虽然我不擅长,但还是抱着试一试的心态去学习了一下自动化测试工具selenium库的使用。

      了解一下需求,它想要某巴一些商家企业的联系方式以及具体信息,数据量较大,手动录入工作量太大。想要获取的信息页面如下

499191bb38ae0ee4dd783a52013a8fe3.png

其中电话信息需要手动点击View details按钮才能显示,既然知道了最终要获取信息的详情页面是哪个,那么我们先来分析一下首页。

bc100d377306a551bdb16686feaf3e6e.png

通过分析他的url地址:

https://www.alibaba.com/trade/search?spm=a2700.supplier-normal.16.5.7f065be3BHRB89&f1=y&keyword=changzhou&page=11&n=38&viewType=L&indexArea=company_en

我们发现他的keyword参数即为我们搜索框中的关键字,page参数即为页数,根据这个页数后面我们可以循环爬取数据。

我们先根据登录地址先登录,直接一开始登陆完就一劳永逸0.0

c07d882878863935917a619b2f2342b3.png

1)首先我们先构建一个webdriver对象供我们操作浏览器

2)然后找到账号密码输入框位置使用send_keys()方法传值

3)最后找到登录按钮并点击

代码如下

97ab30d0e2c2a87c06260dc25840d571.png

我们控制我们的访问速度,使用sleep()方法,使我们的脚本执行的更像类,防止被某巴检测到。

这里列举一下常用的查找元素方法:
find_element_by_name
find_element_by_id
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector

登录之后我们回到首页,我们将访问的url中的keyword和page参数用xxx代替,比如当搜索框输入hangzhou时,将hangzhou这个字符串拼接到url的keyword参数中,页数参数也是根据循环动态传入。

之后我们爬取当前页的所有商家详情页信息存为一个list,之后将每家的详情页地址获取并存放到数组中,方便之后的遍历。

首先循环遍历当前页的所有商家详情页。进入某个详情页后的页面如下

5d19c86bfa20755054ca54065b4752e3.png

我们发现我们所需的信息在如图contacts中,通过找到当前元素并执行点击事件。代码如下

5dca54fd96bd5b508438552bc76dea5a.png

但是在点击contacts事件,有时会遇到找不到详情信息按钮而导致脚本挂掉,所以我们将他作为一个异常去捕获,直接跳过该商家,去查询下一个商家

之后我们终于进入到了具体信息页面,并点击view details按钮后终于得到了我们想要的页面

1c084ae637fa77da0fc0086ebe2560b3.png

此时我们在点击view details按钮时,可能是某巴感觉到我们访问次数过快,会弹出一个登录验证框并需要拖动滑块,

802c97be08fc43caa2683602bed3c909.png

正当想通过定位滑块元素并使用selenium 拖拽元素的方法drag_and_drop(element,target)去拖动滑块验证时,发现对view details按钮元素找不到时候多点击几次,弹窗会自己消失,所以我决定还是为获取该元素写个循环,当找不到该元素时捕获该异常,并再次获取,允许失败容错。当超过最大重试次数时放弃本次商家数据(有时网络差因素也会导致找不到元素此结果,所以写个循环一举两得-------其实就是懒为自己找借口。。。。)    部分代码如下

5a2125da2fa43216cb3967cb774c2bbc.png

最后我们将获取的数据存入excel中,我们为存入专门写一个方法

34176ae8c3b3e11f9a690aa17194389e.png

0258fcce770f13a003db28c1265fb6f0.png

最终获取的数据如下

6330f76fa91278f8bcda619cfba9d6e6.png

这样我们就能完成在平台上对一个关键词的所有商家信息的爬取拉~

完整code在github主页https://github.com/jiangge0720

下次见~~~~~~~~~~~~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值