1.scrapy项目创建——python scrapy 爬取新浪财经财经新闻

近期需要爬取一些关于银行的新闻,通过尚硅谷老师的讲课进行学习,然后应用到东方财富网和新浪财经,现在以新浪财经为例,记录一下学习成果(有一说一,尚硅谷老师教的真不错(>ω<)喵)。此部分只讲操作,具体scrapy框架原理可以自行学习和了解。

1.首先是scrapy的安装
正常pip install scrapy就行,可能会遇到各种各样的报错,把错误复制到百度,一堆解决方案,这里就不赘述了。

2.scrapy项目创建
我想在E:\PythonProject\Crawl_Eastmoney_news下面创建,其中Crawl_Eastmoney_news是一个python工程
在这里插入图片描述

在终端中进入到E:\PythonProject\Crawl_Eastmoney_news路径,
然后输入命令 scrapy stratproject sinanews
这里sinanews是我项目的名字,大家可以根据需要改成自己项目的名字
在这里插入图片描述
回车运行一下,可以发现此时Crawl_Eastmoney_news项目下多了一个目录,就是我们刚刚新建的sinanews,sinanews下会出现一个spider目录、一个items.py文件、一个middlewares.py、一个pipelines.py文件和一个settings.py文件
在这里插入图片描述
3.创建爬虫文件
(1)首先在终端进入到spiders目录下
在这里插入图片描述
(2)终端输入 scrapy genspider sina_news finance.sina.com.cn
在这里插入图片描述
注意到sina_news是爬虫名称,不能跟爬虫项目名称sinanews一样

(3)结果
spiders下面会产生一个爬虫文件
在这里插入图片描述
爬虫文件的内容如下:
在这里插入图片描述
4.对网站进行简单测试
(1)修改parse
在这里插入图片描述
(2)运行scrapy crawl sina_news可以看到打印内容
在这里插入图片描述

在这里插入图片描述
如果不想看到这么多日志内容,可以在settings.py文件中加入:LOG_LEVEL = 'WARNING’

查看网页内容,则用response.text
在这里插入图片描述

在这里插入图片描述
可以在控制台或者终端查看到网页源码

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值