创建项目
scrapy startproject project_name
生成spider文件
注意: 爬虫名字不要和项目名字重复
#scrapy genspider [爬虫名字] [目标网站域名
scrapy genspider usnews xxxx.com
运行名为usnews爬虫
scrapy crawl usnews
#将爬到的数据导出为json csv
scrapy crawl usnews -o usnews.json
scrapy crawl usnews -o usnews.csv -t csv
单独运行爬虫文件
#进到spiders目录里运行 不走项目的配置 走默认的配置
scrapy runspider usnews.py