Linux
ztfDeveloper
GitHub:https://github.com/ZTFsmart
个人博客:https://ztfsmart.github.io/
展开
-
ubuntu下搭建Hexo+GitHub博客
一、安装 Node.js和npm sudo apt-get update sudo apt-get install nodejs sudo apt-get install npm如果报错,请更改软件源–清华大学开源软件源,并更新查看nodejs和npm版本号 nodejs -v npm -v可以正常打印版本号说明,安装成功二、安装 Hexo创建博客所在目录 mkdi原创 2017-10-27 17:25:19 · 786 阅读 · 0 评论 -
在nameSilo购买域名
现在域名都要备案时间太长,在nameSili买个域名立马就可以生效还是蛮好的 官网地址注册登录 可以先搜下有没有合适的域名再买,也可以先注册登录再买把主要信息填下,剩下的随便填,最后验证下,就可以注册了 搜索域名,然后选中去购物车购买 选下隐私的,然后选下购买多久点下边的CONTINUE 然后就可以去支付了,支持支付宝的 点击右上角的Manage My Domain,并点击你购买域名后的原创 2017-12-26 16:58:33 · 3778 阅读 · 0 评论 -
Linux定时任务Crontab命令详解(转载)
crontab是Unix和Linux用于设置周期性被执行的指令,是互联网很常用的技术,很多任务都会设置在crontab循环执行,如果不使用crontab,那么任务就是常驻程序,这对你的程序要求比较高,一个要求你的程序是24X7小时不宕机,一个是要求你的调度程序比较可靠,实际工作中,90%的程序都没有必要花这么多时间和精力去解决上面的两个问题的,只需要写好自己的业务逻辑,通过crond这个工业级程序去转载 2018-01-04 10:51:51 · 880 阅读 · 0 评论 -
定时爬虫部署到ubuntu16.4
把你的scrapy爬虫写好后,我们就可以写脚本来执行爬虫 脚本的逻辑就是先进去到爬虫所在的文件夹然后执行scrapy crawl yourSpider(你的爬虫的名称) 有个注意点就是scrapy在脚本中要写它的绝对路径,通过命令which scrapy来获取路径 脚本内容#!/bin/shcd /spider #此处写你爬虫的文件夹/usr/local/bin/scrapy crawl y原创 2018-01-04 18:26:12 · 990 阅读 · 0 评论