需求是这么来的,现在处于疫情期间,公司应急管理团队成员需要每天或者每周给同事们发送疫情邮件通知,主要通知的内容包括目前的中高风险地区清单,防疫政策动态更新等。每天,需要从网上搜集资料,然后整理成邮件并发送给同事。看起来这个事情是挺简单的,难度在于每天都要发,本来以为是短期行为,现在看来,要长期坚持下去了,这个难度就出现了,要持之以恒的做下去确实不容易哦。
当然,有机械的,重复的,与电脑相关的工作,Python倒原因尝试一下,经过两天的梳理和代码书写,终于成功上线了,设计思路如下:
解释:
1. 关键要选好数据源,这里我们选择了网上的一个固定的的定期疫情发布网站,类似的很多,满足两个要求:1. 保持更新,2.网址固定,满足这两个条件,对于爬虫再适合不过了,具体的网址可以在网上自己挑个合适的。
2. 爬虫的过程中主要用了request这个library, 对于已经获取的数据,采用了BeautifulSoup进行html解析,数据很方便就可以取出。
3. 更新邮件模板这一步主要是读取模板然后更新指定的内容,把之前的爬虫内容整合进入邮件模板
4. 通过Python smtplib发送邮件出去,这个应该是常规操作。
5.当然,要实现定时发送,通过win10自带的计划任务,或者python自带的定时任务库都可以实现。
小结:
通过这么一番操作,既对python爬虫进行了锻炼,又解决了疫情情况定时发送的困扰,何乐而不为呢?