汇总了一下遇到过的问题,太基本的问题就不写了(到处都能搜到),不定期更新
1.超时pymongo.errors.AutoReconnect
在线处理的时候有时候遇到文本过长操作比较久,在回传的时候就会报超时的错误,情况如下:
for each in find(XXXX):
处理操作
update
当处理操作时间比较长(例如十几分钟)后,就会报如下错误:
pymongo.errors.AutoReconnect ip:port [Errno 60] Operation timed out
而且不是一个超时,是双层嵌套超时错误
尝试过修改noCursorTimeout或maxTimeMS(无效)
尝试过新建一个mongoclien(出现其他错误)
内外网都找了一圈没有遇到和我完全一样的错误,stackoverflow上有相似但案例并不相同的,该错误在文档里是这么写的https://pymongo.readthedocs.io/en/stable/api/pymongo/errors.html,大致就是需要自己主动捕获AutoReconnect错误并且处理异常并重连,比如:
try:
db.insert(...)
except pymongo.errors.ConnectionFailure:
# Handle error.
...
其他解决建议在https://www.thinbug.com/q/17625271有
还有人说可以通过修改服务器上的主mongo总配置来增加连接时间(未尝试过,但不建议)
建议要么乖乖按照文档里说的去操作,要么为了尽可能避免类似问题,对于可能时间较久的操作,最好在处理完成之后存下数据,再一次性上传
2.python里Cursor.count()函数总报warning
这个函数已经被废弃了,目前还能用,但是已经被新的函数代替,即Collection.count_documents(),类似find的query指令,只有单纯计数的功能,pymongo的文档见https://pymongo.readthedocs.io/en/stable/api/pymon