1.创建Scrapy项目
首先用cmd命令行去操作,输入
scrapy startproject 项目名
#这里输入的项目名,就是在你输入的目录它会建立一个新的文件夹,这个文件夹里面还是同样名字的一个文件夹,项目新建的时候其实里面只有一个,后来的.idea是被pycharm打开之后pycharm生成的。
那这一步其实也就是决定了文件夹名字,以及在命令栏中决定根目录。
2.然后用pycharm打开这个项目,从根目录打开,在spiders里面新建一个python文件,从这里开始。
3.
import scrapy
class mingyan(scrapy.Spider): # 需要继承scrapy.Spider类,类名随意后面不用
name = "Scrapy_test" # 定义蜘蛛名,这个重要,根据这个启动的,在这里面写清楚用来爬什么的
def start_requests(self): # 由此方法通过下面链接爬取页面
# 定义爬取的链接
urls = [
'http://lab.scrapyd.cn/page/1/',
'http://lab.scrapyd.cn/page/2/',
]
for url in urls:
yield scrapy.Request(url=url, callback=self.parse) # 爬取到的页面如何处理?提交给parse方法处理
def parse(self, response):
'''