Python学习笔记之爬取网页保存到本地文件

 爬虫的操作步骤:

 

爬虫三步走

  • 爬虫第一步:使用requests获得数据: (request库需要提前安装,通过pip方式,参考之前的博文
    1.导入requests
    2.使用requests.get获取网页源码
  • import requests
    r = requests.get('https://book.douban.com/subject/1084336/comments/').text
    

      

      

  • 爬虫第二步:使用BeautifulSoup4解析数据: BeautifulSoup4库需要提前安装,通过pip方式,参考之前的博文
    1.导入bs4
    2.解析网页数据
    3.寻找数据
    4.for循环打印
from bs4 import BeautifulSoup
soup = BeautifulSoup(r,'lxml')
pattern = soup.find_all('p','comment-content')
for item in pattern:
print(item.string)

  

  • 爬虫第三步:使用pandas保存数据: pandas库需要提前安装,通过pip方式,参考之前的博文
    1.导入pandas
    2.新建list对象
    3.使用to_csv写入
import pandas
comments = []
for item in pattern:
comments.append(item.string)
df = pandas.DataFrame(comments)
df.to_csv('comments.csv')

   

完整的爬虫(值得注意的是关于BeautifulSoup和pandas两个包,都需要事先在电脑上安装,可以使用pip命令方式安装,具体方法可查看之前的博文命令 pip install beautifulsoup    &  pip install pandas)

import requests
r = requests.get('https://book.douban.com/subject/1084336/comments/').text
 
from bs4 import BeautifulSoup
soup = BeautifulSoup(r,'lxml')
pattern = soup.find_all('p','comment-content')
for item in pattern:
print(item.string)
 
import pandas
comments = []
for item in pattern:
comments.append(item.string)
df = pandas.DataFrame(comments)
df.to_csv('comments.csv')#当然这里可以指定文件路径,如 D:/PythonWorkSpace/TestData/comments.csv

代码运行结果:(注意的是,运行结果为csv,可能你用Excel打开之后会出现乱码,那是因为csv格式不对,怎么解决呢?

你可以将csv文件用Notepad++打开,编码Encoding选择 Encode in UTF-8-BOM

 

Alt text

如果是多页的话,为了防止保存到CSV 文件中的数据被上一页覆盖,可以这样用:

mode='a', header = False
df.to_csv('D:/Python....csv', mode='a', header = False)

  

  

转载于:https://www.cnblogs.com/PeterZhang1520389703/p/8177550.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值