工作经常会遇到周报,月报,这些定期要发送的文件,甚至还有每天都要发送的东西,本来分析规则都写好了,可是还要每天发送就特别烦人了。我正好手上的几个爬虫,都是一周要一次数据的,我也就每天手动运行下就好了,结果最近要求每天都要。这不是增加我的工作量了吗? 直接上服务器,每天定时运行去。
一、 环境
- ubuntu 16.04
- scrapy
- requests
二、怎么才能定时运行呢?
这就要用到ubuntu的定时任务crontab
了,其实和pc的是一样的,只是这个是命令行的操作. 感觉比pc方便了不少。
首先开启cron服务,然后编辑任务,首次开启编辑时,会要求我们选择编辑器。
sudo service cron status #查看cron的状态
sudo /etc/init.d/cron start #开启cron
sudo /etc/init.d/cron stop #关闭cron
crontab -e #配置任务
# 打开的文件里有说明,格式是分 时 天 月 星期 命令
*/1 * * * * date >> $HOME/test.txt # 表示每过一分钟,把日间写入$HOME/test.txt
sudo service cron restart #配置好了,可以重启cron生效
sudo /etc/init.d/cron restart #重启服务
三、运行爬虫的脚本
#! /usr/bin/env bash
cd scrapy_path
scrapy crawl 爬虫名 #注意scrapy命令要是绝对路径,不清楚可以用which scrapy查看
四、怎么检查定时任务有没有运行
pgrep cron #可以查看cron的进程
tail /var/log/cron.log # 直接查看日志
sudo cat /var/log/syslog | tail # 如果上面的命令说没有文件,则可以通过这个命令查看
sudo cat /var/log/syslog | grep cron | tail #也可以通过这个命令筛选下