恢复有道词典单词记录本的几种方法(非完美)

事情已经再另外一篇文章po出来了(http://www.cnblogs.com/jicheng1014/archive/2013/06/11/3131858.html),这里就只写解决方案吧

 

首先,当你意识到shit happens,请:立即关闭你的所有网络,避免其他设备(电脑、手机)等同步你的sb事情

 

想一下同步的原理,“同步最新数据”。

那么,我只需要保证手上还在的数据变成“最新数据”即可

 

如果你的电脑单词本还存活,请先使用单词本导出选项导出所有单词,以作备份。之后,将所有的单词全选,右键选择“更改分类”,选择新建分类,或者其他分类,ok,之后点击同步,应该就ok(这个我没试验过,只是原理上应该是有效,因为我的是电脑的单词本已经为0了)

如果你的手机的单词本还存活(我刚好有两个android设备,手机遭了但是平板数据还在),那么,请先拷贝sdcard/Youdao/Dict/notes.db    作为备份,之后先进入有道词典,单词本,选择“复习计划”,“变更复习计划”先全选所有单词,再反选,即清空所有复习计划,点保存,之后再所有的打勾,再选保存,再退到单词本里同步,就行了,但是这样会有个不完美的地方,你所有的单词之前的复习进度,都会被清空

如果你悲剧了还是没成功,还可以勉强留住那个notes.db 作为救命稻草重新覆盖再去找其他的解决方案

如果你是有道的开发人员或者是相关人员,请仔细阅读第一段的超链接内容,谢谢。

如果你是和我一样悲剧的人,请记住,经常备份数据,包括大厂的数据。

转载于:https://www.cnblogs.com/jicheng1014/archive/2013/06/11/3131879.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是对网易有道词典单词本进行爬虫并存入Excel的Python代码: ```python import requests from bs4 import BeautifulSoup import openpyxl # 定义爬虫函数 def spider(url): # 发送请求 response = requests.get(url) # 解析HTML soup = BeautifulSoup(response.content, 'html.parser') # 获取单词 words = soup.select('.wordbook-wordlist .wordbook-word-item .wordbook-word')[1:] # 获取词性和释义 meanings = soup.select('.wordbook-wordlist .wordbook-word-item .wordbook-word-item-meanings')[1:] # 存储单词及其词性和释义 wordbook = [] for i in range(len(words)): word = words[i].get_text().strip() meaning = meanings[i].get_text().strip() wordbook.append([word, meaning]) return wordbook # 定义保存到Excel函数 def save_to_excel(wordbook, filename): # 创建Excel文件 workbook = openpyxl.Workbook() # 获取第一个sheet sheet = workbook.active # 写入表头 sheet.cell(row=1, column=1, value='单词') sheet.cell(row=1, column=2, value='词性和释义') # 写入单词及其词性和释义 for i in range(len(wordbook)): word = wordbook[i][0] meaning = wordbook[i][1] sheet.cell(row=i+2, column=1, value=word) sheet.cell(row=i+2, column=2, value=meaning) # 保存Excel文件 workbook.save(filename) # 测试代码 if __name__ == '__main__': wordbook_url = 'http://dict.youdao.com/wordbook/wordlist' response = requests.get(wordbook_url) soup = BeautifulSoup(response.content, 'html.parser') # 获取单词本链接 wordbook_links = soup.select('.wordbook-wrap .wordbook-title .wordbook-title-name a') for link in wordbook_links: href = link['href'] title = link.get_text().strip() # 爬取单词本 wordbook = spider(href) # 保存到Excel save_to_excel(wordbook, f'{title}.xlsx') ``` 这段代码将爬取网易有道词典单词本页面中的单词及其对应的词性和释义,然后将其保存到Excel文件中。使用时,将代码复制到Python文件中,修改`wordbook_url`为单词本页面的链接,然后运行脚本即可。注意要安装所需的库,如`requests`、`beautifulsoup4`和`openpyxl`等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值