分布式爬虫-部署
打开ubuntu
sudo su 转换成root用户,不转输入命令需要加sudo
安装python3 :apt pip install python3-pip
安装scrapyd : pip3 install scrapyd 报以下错误码,
需要更新setuptools见下图 :pip3 install --upgrade setuptools
再次执行: pip3 install scrapyd 成功
进入安装目录:root@ellen-virtual-machine:/# cd /usr/local/lib/python3.6/dist-packages
cd scrapyd 后ls查询看到有一个default_scrapyd.conf文件,将这个文件拷贝到/etc/scrapyd/scrapyd.con中
进入etc目录:cd etc ,创建一个scrapyd文件夹:mkdir scrapyd, 创建完成后再次回到目录cd /user/local/lib/python3.7/dist-packages 中执行:cp default_scrapyd.con /etc/scrapyd/scrapy.con
修改’ /etc/scr