Python爬虫入门 | 6 将爬回来的数据存到本地

微信:Pythonxx,加我领取学习资料



640?wx_fmt=jpeg





640?wx_fmt=jpeg






640?wx_fmt=jpeg




  1. 用Python语句存储数据


写文件时,我们主要用到 with open() 语句:

with open(name,mode,encoding) as file:
  file.write()
  # 注意,with open() 后面的语句有一个缩进 


name:包含文件名称的字符串,比如:‘xiaozhu.txt’; mode:决定了打开文件的模式,只读/写入/追加等; encoding:表示我们要写入数据的编码,一般为 utf-8 或者 gbk ; file:表示我们在代码中对文件的命名。


用我们前面爬的小猪的例子来看一下,实际是什么样的:

 
 


  • from lxml import etree

  • import requests import time with open('/Users/mac/Desktop/xzzf.txt','w',encoding='utf-8') as f:    for a in range(1,6):        url = 'http://cd.xiaozhu.com/search-duanzufang-p{}-0/'.format(a)        data = requests.get(url).text        s=etree.HTML(data)        file=s.xpath('//*[@id="page_list"]/ul/li')        time.sleep(3)            for div in file:            title=div.xpath("./div[2]/div/a/span/text()")[0]            price=div.xpath("./div[2]/span[1]/i/text()")[0]            scrible=div.xpath("./div[2]/div/em/text()")[0].strip()            pic=div.xpath("./a/img/@lazy_src")[0]                        f.write("{},{},{},{}\n".format(title,price,scrible,pic))



640?wx_fmt=jpeg



将写入的文件名 xzzf.txt,如果没有将自动创建。

/Users/mac/Desktop/xzzf.txt


在前面加了一个桌面的路径,它将存在桌面,如果不加路径,它将存在你当前工作目录中。


w:只写的模式,如果没有文件将自动创建;

encoding='utf-8':指定写入文件的编码为:utf-8,一般指定utf-8即可;


f.write("{}  {}  {}  {}\n".format(title,price,scrible,pic))

#将 title,price,scrible,pic 的值写入文件


来看一下存下来的数据是怎样的:



640?wx_fmt=jpeg



如果你没有指定文件路径,怎么找写在本地的文件呢?给你两种方法:


1.在 win10 中打开小娜(cortana),搜索你的文件名即可



640?wx_fmt=jpeg



2.推荐软件“everything”,查询文件更方便快捷。



640?wx_fmt=jpeg



这个软件非常小,百度很容易找到,但确实是神器用了你会回来感谢我的~


所以还是建议你在写代码的时候,老老实实在文件名前面加上你想存放的路径。什么,你连路径怎么写都不知道?好吧,比如我想把文件存在桌面,那么怎么查看路径?


随便找一个文档,比如桌面的文档, 右键 >“属性”,“位置”后面的信息,就是该文档所在的路径了。



640?wx_fmt=jpeg




2.文件存为CSV格式


当然,你也可以将文件存为 .csv 格式,在 with open() 语句后更改文件后缀即可。

 
 


  • from lxml import etree

  • import requests import time with open('/Users/mac/Desktop/xiaozhu.csv','w',encoding='utf-8') as f:    for a in range(1,6):        url = 'http://cd.xiaozhu.com/search-duanzufang-p{}-0/'.format(a)        data = requests.get(url).text        s=etree.HTML(data)        file=s.xpath('//*[@id="page_list"]/ul/li')        time.sleep(3)            for div in file:            title=div.xpath("./div[2]/div/a/span/text()")[0]            price=div.xpath("./div[2]/span[1]/i/text()")[0]            scrible=div.xpath("./div[2]/div/em/text()")[0].strip()            pic=div.xpath("./a/img/@lazy_src")[0]                        f.write("{},{},{},{}\n".format(title,price,scrible,pic))



640?wx_fmt=jpeg



另外,需要注意的是:CSV 每个字段之间要用逗号隔开,所以这里把之前的空格改为了逗号。


CSV 文件怎么打开?


一般情况下,用记事本就可以直接打开,如果你直接用 Excel 打开,很有肯能会出现乱码,就像下面这样:



640?wx_fmt=jpeg



Excel 打开 CSV 出现乱码怎么办?

  1. 在记事本中打开文件

  2. 另存为 – 选择编码为“ANSI”



640?wx_fmt=jpeg



再来看看之前的豆瓣TOP250图书写入文件:

 
 
  • from lxml import etree import requests import time with open('/Users/mac/Desktop/top250.csv','w',encoding='utf-8') as f:    for a in range(10):        url = 'https://book.douban.com/top250?start={}'.format(a*25)        data = requests.get(url).text        s=etree.HTML(data)        file=s.xpath('//*[@id="content"]/div/div[1]/div/table')        time.sleep(3)        for div in file:            title = div.xpath("./tr/td[2]/div[1]/a/@title")[0]            href = div.xpath("./tr/td[2]/div[1]/a/@href")[0]            score=div.xpath("./tr/td[2]/div[2]/span[2]/text()")[0]            num=div.xpath("./tr/td[2]/div[2]/span[3]/text()")[0].strip("(").strip().strip(")").strip()            scrible=div.xpath("./tr/td[2]/p[2]/span/text()")            if len(scrible) > 0:                f.write("{},{},{},{},{}\n".format(title,href,score,num,scrible[0]))            else:                f.write("{},{},{},{}\n".format(title,href,score,num))



640?wx_fmt=jpeg



最后存下来的数据是这样的:



640?wx_fmt=jpeg



好了,这节课就到这里!




640?wx_fmt=jpeg



640?wx_fmt=png扫码右边二维码加我微信,一元即可获得Django零基础到项目框架开发视频。

640?wx_fmt=jpeg



python虫与项目实战,网络虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。 随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。但是,这些通用性搜索引擎也在着一定的局限性,如: (1)不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。 (2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。 (3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。 (4)通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。 网络虫 为了解决上述问题,定向抓取相关网页资源的聚焦虫应运而生。聚焦虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。与通用虫(general purpose web crawler)不同,聚焦虫并不追求大的覆盖,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。 传统虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被虫抓取的网页将会被系统贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值