python抓取数据并修改,python实现全站数据抓取

一、执行结果

aa90de50440e8e1c17bc82e61bddfaa2.png

二、代码

import re

import bs4

import urllib.request

url_home = 'http://www.5bug.wang/' #要采集的网站

url_pattern = url_home + 'post/\d+.html' #正则表达式匹配文章页面,此处需完善为更好的写法

url_set = set()

url_cache = set()

url_count = 0

url_maxCount = 10 #最大采集数量

#采集匹配文章内容的href标签

def spiderURL(url, pattern):

html = urllib.request.urlopen(url).read().decode('utf8')

soup = bs4.BeautifulSoup(html, 'html.parser')

links = soup.find_all('a', href = re.compile(pattern))

for link in links:

if link['href'] not in url_cache:

url_set.add(link['href']) #将网页中的url加入到待采集的集合列表

return soup

#采集的过程 异常处理还需要完善,对于一些加了防采集的站,还需要处理header的,下次我们再学习

spiderURL(url_home, url_pattern)

while len(url_set) != 0:

try:

url = url_set.pop() #上面执行了spidrURl函数后,url_set已经有值了,取出集合中的最后一条记录

url_cache.add(url) #将url加入到已经采集的集合列表

soup = spiderURL(url, url_pattern)

page = soup.find('div', {'class':'main'})

title = page.find('h2').get_text()

print("title is :",title)

content = page.find('div',{'class':'article-content single-con'}).get_text()

print("content is",content)

print("-"*100)

except Exception as e:

print(url, e)

continue

else:

url_count += 1

finally:

if url_count == url_maxCount:

break

print('一共采集了: ' + str(url_count) + ' 条数据')

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值