python爬虫实例手机_Python爬虫实例

代码:

#!/usr/bin/env python

# -*- coding: utf-8 -*-

import requests

import re

#下载一个 网页

url ='http://www.17k.com/list/2932117.html'

#模拟浏览器发送http请求

response = requests.get(url)

response.encoding ='utf-8'

html = response.text

#小说标题

tittle = re.findall(r'

(.*?)

', html)[0]

#print(tittle)

#新建文件保存小说内容

fb =open('%s.txt' % tittle, 'w', encoding ='utf-8')

dl = re.findall(r'

', html, re.S)[0]

dd = re.findall(r'

.*?', dl, re.S)[0]

#注意正则表达式易错,.不能代替换行符

chapter_info_list = re.findall(r'href="(.*?)".*?>\n.*?\n\s{60}(.*?)\s{52}<', dd)

#新建文件保存小说内容

#with open('%s.txt' % tittle) as f:

#循环每个章节,分别下载

for chapter_infoin chapter_info_list:

#chapter_tittle = chapter_info[1]

#chapter_url = chapter_info[0]

chapter_url, chapter_tittle = chapter_info

chapter_url ="http://www.17k.com%s" % chapter_url

#print(chapter_url, chapter_tittle)

#下载章节内容

chapter_response = requests.get(chapter_url)

chapter_response.encoding ='utf-8'

chapter_html = chapter_response.text

#读取章节内容

chapter_content = re.findall(r'

(.*?)
', chapter_html, re.S)[0]

#清洗数据

chapter_content = chapter_content.replace(' ', '')

chapter_content = chapter_content.replace(' ', '')

chapter_content = chapter_content.replace('
', '')

#持久化

fb.write(chapter_tittle)

fb.write(chapter_content)

fb.write('\n')

print(chapter_url, chapter_tittle)

#exit()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值