使用Python爬取小說網站並且將內容自動導入MYSQL數據庫當中

这篇博客介绍了如何使用Python爬虫技术抓取小说网站的内容,并详细阐述了将抓取的数据自动导入到MySQL数据库的过程。
摘要由CSDN通过智能技术生成

#該操作主要是以本地ip對mysql進行訪問,

整理得有點亂,多多包涵囉~~~

def Spider():
# 懶地註釋囉!自己查吧
import requests
from lxml import etree
import re
# 模擬請求頭
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.94 Safari/537.36"
}
# 抓取網址,請求頭
r = requests.get('http://www.seputu.com/', headers=headers)

html = etree.HTML(r.text)
rows = []
titall = html.xpath('//*[@class="mulu"]')
for tit in titall:
    h2 = tit.xpath('.//div[@class="mulu-title"]/center/h2/text()')
    # 判斷是否存在內容
    if len(h2):
        h2tit = h2
        a_s = tit.xpath('./div[@class="box"]/ul/li/a')
        for a in a_s:
            href = a.xpath('./@href')[0]
            tits = a.xpath('./@title')[0]
            # 匹配所有
            pattern = re.compile(r'\s*
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值