利用Python爬取妙笔阁小说网站的小说信息并保存为txt和csv格式

本次爬取的是妙笔阁小说网仙侠系列中所有小说的信息,打开网页会看到如下图所示的小说列表。
这里写图片描述
根据列表,选择爬取小说的书名、作者、最新更新、简介这四项信息。
在爬取之前,为了防止网站禁止爬取,需构造访问的请求头,模拟浏览器访问该网站。那么如何构建请求头,需要找到访问网站时的代理:

在想要爬取的页面按F12,然后点击NetWork,按F5刷新,随便点击进去一个即可,然后找到User-Agent
这里写图片描述

1.构建请求头:

user_agent = 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like          Gecko) \Chrome/60.0.3112.101 Safari/537.36'  
headers  =  {'User-Agent':user_agent}

2.利用request请求url,并将相应内容转换为html:

response = requests.get("http://www.mbige.com/bookstore/xianxia/default-0-0-0-0-0-0-1.html")
        response.encoding = response.apparent_encoding
        html = lxml.html.fromstring(response.text)

3.利用Xpath解析html,并将解析的内容写入txt文件中:

 with open("E:/xiaoshuo.txt",'a+',encoding = 'utf8') as f :
          #通过对页面元素检查,发现html中每个小说都有一个列表块(alistbox), 小说的信息均在alistbox 标签下,
          #所以首先获取所有小说的alistbox标签下的内容,存在divlst列表中
            divlst = html.xpath('//div[@id="alistbox"]')
          #对每个小说的alistbox进行解析,获取小说名(title)、作者(author)、最新更新(newest)、简介(intro)的信息
            for i in divlst:
                title = i.xpath('.//h2/a/text()')
                author = i.xpath('.//div[@class="title"]/span/text()')
                newest = i.xpath('.//li/a/text()')
                intro = i.xpath('.//div[@class="intro"]/text()')
                f.write(str(title)+" "+str(author)+'\n'+str(newest)+'\n'+str(intro)+'\n')

4.完整代码(保存为txt格式):

import requests
import lxml.html

class myspider():
    def __init__(self):
        user_agent = 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'  
        self.headers = {'User-Agent':user_agent}
    def gethtml(self,url):
        try:
            response = requests.get(url)
        except:
            response = None
        else:
            response.encoding = 'gb18030'
        finally:
            html = lxml.html.fromstring(response.text)
        return html
    def getpage(self,url):
        with open("E:/xiaoshuo.txt",'a+',encoding = 'utf-8') as f :
            html = self.gethtml(url)
            divlst = html.xpath('//div[@id="alistbox"]')
            for i in divlst:
                title = ''.join(i.xpath('.//h2/a/text()'))
                #''.join把元素从列表中抽取出来,例:['a']抽取出来为a
                author = ''.join(i.xpath('.//div[@class="title"]/span/text()'))
                newest = ''.join(i.xpath('.//li/a/text()'))
                #对intro进行去除换行
                intro = ''.join([x.strip('\n') for x in i.xpath('.//div[@class="intro"]/text()') if x])
                f.write(str(title)+"\n"+str(author)+'\n'+str(newest)+'\n'+str(intro)+'\n'+'\n')    

if __name__ == '__main__':
    sp=myspider()
    #仙侠系列小说列表共160页,通过观察发现每页的url的最后为当前页数,即从1递增到160
    #所以通过循环得到替换url最后元素,得到每一页的url,逐一访问
    url1='http://www.mbige.com/bookstore/xianxia/default-0-0-0-0-0-0-{0}.html'
    for num in range(1,161):
        url = url1.format(num)
        sp.getpage(url)
        print(str(num)+"page")

5.得到的xiaoshuo.txt文件内容如下:
这里写图片描述

保存为csv格式只需在上述代码中增加几行代码
6.完整代码(保存为csv格式):

import requests
import lxml.html
#导入csv包
import csv

class myspider():
    def __init__(self):
        user_agent = 'Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'  
        self.headers = {'User-Agent':user_agent}
    def gethtml(self,url):
        try:
            response = requests.get(url)
        except:
            response = None
        else:
            response.encoding = 'gb18030'
        finally:
            html = lxml.html.fromstring(response.text)
        return html
    def getpage(self,url):
        with open("E:/xiaoshuo.csv",'a+',encoding = 'utf-8') as f :
            f1 = csv.writer(f)
            #创建表格中的列名
            f1.writerow(['书名','作者','最新更新','简介'])
            html = self.gethtml(url)
            divlst = html.xpath('//div[@id="alistbox"]')
            for i in divlst:
                #''.join把元素从列表中抽取出来,例:['a']抽取出来为a
                title = ''.join(i.xpath('.//h2/a/text()'))
                author = ''.join(i.xpath('.//div[@class="title"]/span/text()'))
                newest = ''.join(i.xpath('.//li/a/text()'))
                #对intro进行去除换行
                intro = [x.strip('\n') for x in i.xpath('.//div[@class="intro"]/text()') if x]
                f1.writerow([str(title),str(author),str(newest),str(intro)])      

if __name__ == '__main__':
    sp=myspider()
    #仙侠系列小说列表共160页,通过观察发现每页的url的最后为当前页数,即从1递增到160
    #所以通过循环得到替换url最后元素,得到每一页的url,逐一访问
    url1='http://www.mbige.com/bookstore/xianxia/default-0-0-0-0-0-0-{0}.html'
    for num in range(1,161):
        url = url1.format(num)
        sp.getpage(url)
        print(str(num)+"page")

7.得到的xiaoshuo.csv文件内容如下:
这里写图片描述
开心以为终于爬取完成,一个完美滴csv将呈现眼前,打开文件一脸懵逼,全是乱码,但是编码应该不会有问题的啊,毕竟保存txt文件中并无乱码问题,所以应该是excel编码问题。然后使用Notepad++打开csv文件,修改编码后,再次打开文件就没有乱码啦:
这里写图片描述

  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要将爬取的网页内容保存CSV文件中,可以使用Python中的csv模块。具体步骤如下: 1. 导入相关模块: ```python import requests import csv from bs4 import BeautifulSoup ``` 2. 发送HTTP请求,获取网页内容: ```python url = 'http://www.example.com' response = requests.get(url) html_content = response.content ``` 3. 解析HTML内容,获取需要的信息: ```python soup = BeautifulSoup(html_content, 'html.parser') title = soup.title.string text = soup.get_text() ``` 4. 将获取的信息写入CSV文件: ```python with open('example.csv', 'w', encoding='utf-8', newline='') as csvfile: writer = csv.writer(csvfile) writer.writerow(['Title', 'Text']) writer.writerow([title, text]) ``` 注意事项: - `csv.writer()`中`newline=''`参数的作用是防止写入CSV文件时出现空行; - CSV文件的编码一般为`utf-8`,中文字符需要特别注意编码问题。 完整代码示例: ```python import requests import csv from bs4 import BeautifulSoup url = 'http://www.example.com' response = requests.get(url) html_content = response.content soup = BeautifulSoup(html_content, 'html.parser') title = soup.title.string text = soup.get_text() with open('example.csv', 'w', encoding='utf-8', newline='') as csvfile: writer = csv.writer(csvfile) writer.writerow(['Title', 'Text']) writer.writerow([title, text]) ``` 执行完毕后,当前目录下会生一个名为`example.csv`的文件,文件内容为爬取的网页标题和文本。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值