python3爬虫实战01--爬取简单文字内容

20200205

调用BeautifulSoup和requests库爬取网页内容

import requests
from bs4 import BeautifulSoup

def crawle():
    url = 'https://www.kanunu8.com/book3/7474/'
    req = requests.get(url=url)
    req.encoding = 'gbk'
    html = req.text
    bf_1 = BeautifulSoup(html, 'lxml')
    content_url = bf_1.find_all('tr', align='center')
    for center in content_url:
        print(content_url)

if __name__ == '__main__':
    crawle()

在网上看了个有意思的案例,爬取小说内容,于是自己就找了个网站试试。
谷歌浏览器摁F12,查看网页结构,发现小说内容存储在这个部分。然后改一下find_all的参数就行。在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值