selenium点击链接进入子页面抓取内容(新闻抓取案例一)

找了一个新闻网站练习爬虫抓取,目标:逐一点击目录标题,进入详细新闻页面,抓取子页面的标题和正文内容并打印出来,返回目录标题页,点击下一篇文章。注:没有新开窗口,是在原窗口实现跳转。新开窗口进行抓取看下一篇文章。

试了很多种方法都抓取不到class=rightContent下面每个a标签里的href链接,开始思考是不是因为href链接都放在li列表里面导致。

后面终于试到怎么获取这些在列表li里的href链接了:首先第一步先抓取到所有a标签,这里用的是绝对路径,比较方便,直接右键copy→xpath。这样抓取出来的是一个列表links:

links=driver.find_elements_by_xpath("/html/body/div[5]/div[4]/ul/li/a") 

通过for link in links遍历所有抓取出来的a标签内容,然后再用get_attribute()函数来获取每一个link的href属性,得到的是a标签对应的目标页面的URL:

link.get_attribute('href')

这样就能获得每一个子页面地址。但要注意,这里抓取出来的是地址的字符串,不能点击。相当于在word里面输入网址,但是没按回车制造超链接,使网址变成了普

  • 20
    点赞
  • 97
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
除了Selenium之外,还有其他一些常用的爬虫框架和工具可以用来实现爬虫案例。其中一些包括: 1. BeautifulSoup:BeautifulSoup是一个Python库,用于从HTML或XML文档中提取数据。它提供了简单而直观的方式来遍历、搜索和修改文档树。与Selenium不同,BeautifulSoup主要用于解析和提取静态网页的数据。 2. Scrapy:Scrapy是一个高级的Python爬虫框架,用于快速、高效地抓取和处理网页数据。它提供了强大的功能,如分布式爬虫、自动限速、数据存储和处理等。相比于Selenium,Scrapy更适合用于大规模和高效率的网页爬取。 3. Requests:Requests是一个简洁而方便的Python库,用于发送HTTP请求。它提供了简单易用的API,可以轻松地进行网页的获取和数据的提取。与Selenium和Scrapy不同,Requests适用于简单的网页抓取和数据提取任务。 4. PyQuery:PyQuery是一个基于jQuery语法的Python库,用于解析和处理HTML文档。它提供了与jQuery类似的API,可以方便地进行网页的解析和数据的提取。与Selenium和Scrapy相比,PyQuery主要用于对静态网页进行解析和提取。 这些都是常用的爬虫框架和工具,根据不同的需求和任务,可以选择合适的工具来实现爬虫案例。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Selenium爬虫实战丨Python爬虫实战系列(8)](https://blog.csdn.net/m0_68103523/article/details/124912564)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值