pyecharts报错:jinja2.exceptions.TemplateAssertionError: no test named ‘false‘ 升级jinja2即可:pip install --upgrade jinja2。
mysql的两个小问题 1.关于concat函数用到此函数是为了多个字段对应同一个值进行模糊匹配。例如: select * from course_info where course_id like '%xxx%' or course_name like '%xxx%' or course_school like '%xxx%'上述语句等同于:select * from course_info whe
xshell 评估过期 如下为 Home&School 免费版链接,卸载原程序,下载安装此程序即可。http://www.netsarang.com/download/free_license.html邮箱必须填写正确,Home&School 版的下载地址会发送到邮箱,如下
Python多线程爬取QQ音乐的专辑信息 1 需求: 获取专辑信息: 专辑名字,歌手,流派,语种,发行时间,发行公司,类型,介绍 以及专辑中的歌曲,歌手和时长 全部保存为json格式2 分析页面 专辑链接所在的url为上图右方的链接:去掉多余参数则如下图所示: page从0开始。 观察专辑的链接, 红框中的内容恰好是一图中的albu
Python安装lxml出错:ERROR: 'xslt-config' 不是内部或外部命令,也不是可运行的程序的解决办法。 想用xpath,from lxml import etree的时候发现没有lxml。(直接蹦到四五步就好)1 pip install lxml 然后报一堆错。ERROR: 'xslt-config' 不是内部或外部命令,也不是可运行的程序的解决办法。2 下载whl文件。 安装依旧出错。3 下载exe文件,手动安装。 https://pypi.pyth
scrapy连接mysql出错 报错内容大概是:connection localhost(无法连接localhost) 忘记截图。。。。。只把解决方法写进了txt settings.py文件中的设置: pipeline.py文件中连接数据库的设置:
解决安装python没有scripts文件夹的问题 好久不更。 安装Python2.7,好多次都不会产生scripts文件夹,导致无法使用pip。 折腾了一下,找到了解决办法。 让人无法接受的是,只要是我给的安装包一定不会产生scripts文件夹,所以应该是我的安装包出现了问题,建议出现这个问题的宝宝们先去换个安装包,如果换了之后还有这个错误,可以看一下我是怎么解决的,仅供参考。
python设置代理ip爬取知乎图片 原文链接:http://blog.csdn.net/willib/article/details/52374507本文接着前面两文中提到的内容来继续完善我们的Python爬虫。上文地址:通过Python爬虫爬取知乎某个问题下的图片设置代理的方式很简单,可以看看这里Requests的官方文档,这里也有对应的中文版介绍,点击打开链接先简单说下requests代理的使
python爬取的图片无法显示的问题 一开始把图片爬下来的时候完全都不能看,查了很多也没清楚原因,最近看到一篇解决这个问题的博客,膜拜呀。原博客地址:http://www.cnblogs.com/eastmount/p/5055908.html一. 简单分析原因及知识巩固 1.urllib.urlretrieve() 通过urlretrieve()函数可设置下载进度发现图
csv.Error: line contains NULL byte解决方法 写代码的时候,导入一个csv文件,就一直报这个错误。csv.Error: line contains NULL byte查了查,是说包含了空字符。看了一下csv的源码,其中一个函数表示,不能有空操作符,即不能有“\0”或者“\x00”(16进制)。解决办法:1.如果你的文件是从xlxs格式另存为csv格式的话,那么重新再另存为csv格式一下就ok。2.将空字符全部替
Python识别验证码的模块--- pytesser pytesser识别简单的数字和英文字母还好,复杂的以及中文都无法识别的。而且该模块需要PIL库的支持。如果要识别其他语言,需要下载相应的语言数据包放入tessdata中,然后在调用image_to_string()函数时多加一个language参数。该博客里讲解了pytesser的安装使用、解决识别率低的问题以及通过修改源代码来识别其他语言,我改了,但是。。。。。一直报错。(不明所以脸)
phantomjs+selenium爬取拉勾招聘信息 我又回来了我。从开学到现在仔细想想干了点啥,嗯。。。。。没啥。一直想着补博客,然后就想着。。刚为祖国大人庆完生,又被老妈拽去地里各种折腾,回来都不想动脑子,不想不想不想,啊。。。。。还是补博客吧,废话太多了,呵呵呵。说说要达到的目标:就是获取六个热门城市中数据挖掘职位的招聘职位、职位要求、面试评价等,最后转存为json格式。遇到的问题大概就是模拟登陆和验证码识别两大块问题吧。前提啊
python排序函数sort()、sorted()、argsort() 1.sort()sort()是可变对象的方法,无参数,无返回值,但会影响改变对象。例如:>>> a = [2,5,1,3,0,1,8]>>> a.sort()>>> a[0, 1, 1, 2, 3, 5, 8]2.sorted()sorted(iterable[, cmp[, key[, reverse]]])sorted()不会发生上述情况,sorted()函数
python字典的get函数和iteritems函数 1.get()当我们获取字典里的值的时候,一个是通过键值对,即dict['key'],另一个就是dict.get()方法。例如:>>> dict = {'a':'AA', 'b':'BB', 'c':'CC'}>>> dict['a']'AA'>>> dict.get('a')'AA'get()方法语法:dict.get(key, default=None)ke
NumPy的详细教程 转自:http://blog.csdn.net/lsjseu/article/details/20359201先决条件在阅读这个教程之前,你多少需要知道点Python。如果你想从新回忆下,请看看Python Tutorial.如果你想要运行教程中的示例,你至少需要在你的电脑上安装了以下一些软件:PythonNumPy这些是可能对你有帮助的:ipy
scrapy爬取post的数据 1.爬取瑞钱宝的投资方式的数据,爬取内容如下: 2.查看网址,可以发现:点击下一页时,地址栏里的链接均无任何变化。可以判断出该网页的数据都是post方式上传的。说一下get和post的区别:get显式的传参,而post是隐式的。get的URL会有限制,而post没有。get没有post安全。不过,小某还看到一篇内容。点击打开
python-----os模块 常用方法:可以通过help进行查看相关的用法1.os.name---判断正在使用的平台。Windows返回“nt”,Linux返回“posix”。2.os.getcwd()---获取python脚本工作的目录路径3.os.listdir()---获取指定目录下的所有文件和目录名4.os.remove()---删除指定文件5.os.rmdir()---删除指定目录
用scrapy爬取网页数据 刚开始接触scrapy,乍那么一看,这都是些什么鬼,感觉好难。。。。。。学习历程大概是这样的:1.先百度了scrapy的官方文档,scrapy官方文档,早就安装了scrapy,cmd->python->import scrapy的时候是很正常的,不过在pycharm中导入一直都有红杠杠的。。。。不得不又卸了重新装。在这里特别要注意scrapy的s的大小写。pip安装的时候是大写,导入模块的