python抓取网站重要url_python抓取网站所有URL地址

背景说明:最近在做一个网站推广的项目,想获取这个网站的所有url地址,生成一个网站地图,就拿python练练手。

思路:爬网站所有url,也就是获取网页-》分析网页-》提取所有a标签-》最终获取url,再将获取的url作为源信息来查找新的url。

从网页中提取a标签属性值最快的方法有两个,一个是正则,一个用CSS选择器。

BeautifulSoup非常适合干这个事,可以参考python模块:BeautifulSoup学习手账。

import requests

from bs4 import BeautifulSoup

site = "https://www.tianshengdiyi.cn"

headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '

'Chrome/60.0.3112.78 Safari/537.36'}

# 第一次遍历首页所有url

def get_url_lists(site_url):

urla = []

global headers

rs = requests.get(site_url, headers=headers)

soup = BeautifulSoup(rs.text, 'html.parser')

url_list = soup.select('a')

for i in url_list:

if i.ha

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值