已经完成了利用python爬虫实现定时QQ邮箱推送英文文章,辅助学习英语的项目,索性就一口气利用python多做一些自动化辅助英语学习的项目,对自己的编程能力和英文水评也有一定的帮助,于是在两天的努力下,我完成了今天的项目。
首先是艾宾浩斯记忆法,大家了解一下真的非常有效果(至少对于我来讲啦┑( ̄Д  ̄)┍)
项目源码:
链接: https://pan.baidu.com/s/1Y6OuGZbAXrDNuGcHVO2EZQ 提取码: 3se3
当然,我也会把自己的项目上传到github上供大家指正,由于本人非常喜欢python和英语,所以后期也做很多将两者结合起来的项目。所以,如果大家对本项目有兴趣,希望体验或加入开发,又或者对它有一定的想法与意见,欢迎加入我最近组建的交流群。谢谢大家啦~~
本项目主要是通过在事先准备好的excel单词文件中每天抽取单词,并反复使用QQ邮箱发送到自己的邮箱里提醒自己有一定规律的背单词,项目最大的难点有三。
- 对于csv文件的对应切片任务等操作
- 对于日志的记录
- 艾宾浩斯记忆法是一个周期性的过程,需要反复的计算。
当然,由于这个项目的文件还是比较多的,所以为了简化这个项目,我就先按照自己的开发思路来说,当然如果要自己来使用本项目还是要费一番心思读一读代码才好,因为在dataframe数据的处理部分随便拿一个小坑讲一下都是一篇文章(😂)所以,各位一定要耐心读下去鸭。
好了
show me the code
开发环境 :python3.6
IDEA : pycharm2019
阿里云ECS: centos7
接下来我们看一下项目路径,并注意对应进行解释:
(忽略我拙略的变量英文,就是因为这样所以才好好学习英语鸭)
分别来解释一下
data 目录:
用于存放日志文件,分别有data_log.csv和word.csv
data_log.csv 用于每天随机抽取单词的时候避免抽取到重复的单词。
word.csv 是每天将每个单词的time时间数据记录进去进而用于计算单词复习的时间。
every_day_word 目录:
用于存储每天随机抽取的单词机器词义等相关信息,并将其存储为csv格式,以对应的时间为文件名存储,同步在上面的data_log.csv的time索引内。
word 目录 :
存储总的单词大表数据的目录,很简单。
接下来就是我们的项目代码部分,如你所见项目代码都在项目的根目录处,
接下来我会一 一的说明这些代码,当然是以我自己的顺序,对了代码的详细解释在代码的注释里面,有任何疑问和想法可以加入上面的群来交流。
word_read_project.py
这一部包含了多个函数与变量,是项目文件处理的第一核心部分,主要难点在于dataframe的控制问题以及日志的读写问题,需要耐心的看完,推荐搭配pycharm专业版使用,非常方便。
#auther :keepython
import pandas as pd
import numpy as np
import os
import time
import random
word_file_path = 'word/六级核心词汇表(EXCEL表格).xls&