第一步:分析需求,明确目标
扇贝网:https://www.shanbay.com/已经有一个测单词量的功能,
我们要做的就是把这个功能复制下来,并且做点改良,搞一个网页版没有的功能 ———— 自动生成错词本。
在这一步,请阅读文档的同时打开浏览器的扇贝网,跟着我一步步来。
第二步:分步讲解,书写代码 (。▰‿‿▰。) ❤
(0). 选择题库。
写这个程序,要用到requests模块。
先用requests下载链接,再用res.json()解析下载内容。
让用户选择想测的词库,输入数字编号,获取题库的代码。
提示:记得给input前面加一个int()来转换数据类型
(1). 根据选择的题库,获取50个单词。
第0步我们已经拿到链接,这步直接用requests去下载,re.json()解析即可。
(2). 让用户选择认识的单词:此处,要分别记录下用户认识哪些,不认识哪些。
已经有了单词数据,提取出来让用户识别,并记录用户认识哪些不认识哪些,至少2个list来记录。
50个单词,记得要用循环。
用户手动输入自己的选择,用input() 。
我们要识别用户的输入,并基于此决定把这个单词放进哪个list,需要用if语句。
提示:当一个元素特别长的时候,给代码多加一个list。
提示:加个换行,优化用户视角。
(3). 对于用户认识的单词,给选择题让用户做:此处要记录用户做对了哪些,做错了哪些。
这一步是第0步和第2步的组合——涉及到第0步中的选择,也涉及到第2步的数据记录。
提示: 面对冗长的字典列表相互嵌套,可以创建字典。
(4). 生成报告:50个单词,不认识多少,认识多少,掌握多少,错了多少。
生成报告主要有三部分:第0,是输出统计数据;第1,是打印错题集;第2,是把错题集保存到本地。
参考代码
import requests
link = requests.get('https://www.shanbay.com/api/v1/vocabtest/category/')
#先用requests下载链接。
js_link = link.json()
#解析下载得到的内容。
bianhao = int(input('''请输入你选择的词库编号,按Enter确认
1,GMAT 2,考研 3,高考 4,四级 5,六级
6,英专 7,托福 8,GRE 9,雅思 10,任意
>'''))
#让用户选择自己想测的词库,输入数字编号。int()来转换数据类型
ciku = js_link['data'][bianhao-1][0]
#利用用户输入的数字编号,获取题库的代码。如果以输入“高考”的编号“3”为例,那么ciku的值就是,在字典js_link中查找data的值,data是一个list,查找它的第bianhao-1,也就是第2个元素,得到的依然是一个list,再查找该list的第0个元素。最后得到的就是我们想要的NCEE。
test = requests.get('https://www.shanbay.com/api/v1/vocabtest/vocabularies/?category='+ciku)
#下载用于测试的50个单词。
words = test.json()
#对test进行解析。
danci = []
#新增一个list,用于统计用户认识的单词
words_knows = []
#创建一个空的列表,用于记录用户认识的单词。
not_knows = []
#创建一个空的列表,用于记录用户不认识的单词。
print