python获取网页上特定的链接_读取指定页面中的超链接-Python 3.7

#!/usr/bin/env python

#coding: utf-8

from bs4 import BeautifulSoup

import urllib

import urllib.request

import sys

from imp import reload

reload(sys)

#sys.setdefaultencoding("utf-8")

# the url of the page

url = 'https://www.wikipedia.org/'

def findAllLink(url):

'''

Get hyperlinks from web pages

'''

# agreement, domain name

proto, rest = urllib.request.splittype(url)

domain = urllib.request.splithost(rest)[0]

# read the page

html = urllib.request.urlopen(url).read()

# Extract hyperlinks

a = BeautifulSoup(html).findAll('a')

# filter

alist = [i.attrs['href'] for i in a if i.attrs['href'][0] != 'j']

# 将形如#comment-text的锚点补全成http://www.ruanyifeng.com/blog/2015/05/co.html,将形如/feed.html补全为http://www.ruanyifeng.com/feed.html

alist = map(lambda i: proto + '://' + domain + i if i[0] == '/' else url + i if i[0] == '#' else i, alist)

return alist

if __name__ == '__main__':

for i in findAllLink(url):

print(i)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值