Python
个人学习的一些pythonj技术
哦啦哦啦!
这个作者很懒,什么都没留下…
展开
-
Flask下查看URL映射
打开python shell输入python查看映射关系from hello import appapp.url_map其中引号内的是路由地址,中间的(GET, OPTION, HEAD)对应请求方法,最右边的是视图函数名原创 2021-10-26 11:22:59 · 582 阅读 · 0 评论 -
Django新建app时报TypeError: unsupported operand type(s) for /: ‘str‘ and ‘str‘ 错误
报错提示:解决方案:打开Django项目下的settings.py文件,定位到下面的位置将斜杠改为逗号即可原创 2021-05-19 11:47:46 · 547 阅读 · 0 评论 -
Conda导入环境时 ResolvePackageNotFound错误
错误信息:环境配置文件是在别的机器上导出的,文件里的软件包是按照那个机器配置的,导出的时候,把这些包的详细信息也导了出来。也就是第二个等号后面跟着的信息,当我们按照这个文件创建环境时,conda会结合我们机器的配置信息,按照配置文件里包的详细信息,去找这个包,结果发现“查无此包”。解决方法:删除包的具体信息,即包名称第二个等号及后面的内容,如下图所示,这样就可以顺利导入环境了...原创 2021-04-16 22:56:03 · 30514 阅读 · 23 评论 -
WordCloud生成词云图时出现一堆方框
在调试代码的时候,生成图片是一堆方框,见下图其实这个是设置字体的问题,我原来用的是matplotlib库下自带的字体DejaVuSans.TTF,这款字体对中文支持不是很好我另外下载了SIMYOU.TTF字体,生成图片成功...原创 2020-03-18 22:52:41 · 6403 阅读 · 3 评论 -
pip使用国内镜像源(解决大多数下载失败问题)
对于Python开发用户来讲,PIP安装软件包是家常便饭。但国外的源下载速度实在太慢,并且连接十分不稳定,很容易网络连接超时,一直安装不成功,浪费时间。所以把PIP安装源替换成国内镜像,可以大幅提升下载速度,还可以提高安装成功率。国内源:来源地网址清华https://pypi.tuna.tsinghua.edu.cn/simple阿里云http://mirror...原创 2020-03-10 21:54:41 · 1334 阅读 · 2 评论 -
Pycharm中导入jieba库出错(利用国内镜像文件解决)
前言自己照着网上pip install jieba,安装了无数次,每次都是安装到一半出错同理直接在pycharm中setting->project interpreter->搜错jieba,安装到一半还是会出错亲测有效方法打开cmd,输入:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple jieba注意这里安...原创 2020-03-09 21:44:22 · 2795 阅读 · 0 评论 -
python实现简单的可视化界面
1.GUI入门——easygui原文作者 :chaser_ming7链接:https://blog.csdn.net/mingqi1996/article/details/812726212.tkinter(轻量级的跨平台图形用户界面(GUI)开发工具)原文作者:袁小雨链接:https://www.cnblogs.com/y862621115/p/10946037.html...转载 2020-03-05 12:49:50 · 2847 阅读 · 0 评论 -
Python爬取免费ip并检测ip是否有效
自己写爬虫的过程中遇到了被封Ip的情况,迫于无奈==,学习了代理Ip的方法废话不多说,直接上代码爬取的免费ip网站是 XiciDaili.comfrom bs4 import BeautifulSoupimport requestsf=open(r"C:\Users\thunderobot\Desktop\ip_pool.txt","w",encoding='utf-8')header...原创 2019-10-31 21:03:30 · 1390 阅读 · 0 评论 -
Python中 status_code获取网页状态码以及不同状态码详解
在爬虫的时候我们需要判断当前网页对于我们的请求是否有响应网页状态码表示服务器的响应状态,举个例子,比如200代表服务器正常响应, 404代表页面未找到下面直接上代码import requesturl = "https://www.baidu.com"#网址#request请求网页内容strhtml= requests.get(url,headers=header)#status.co...原创 2019-10-29 20:34:58 · 24641 阅读 · 3 评论 -
Python爬虫 伪装成浏览器访问 及fake_useragent库使用方法
在编写爬虫进行网页数据的时候,很多网站有反爬机制,对于不同的网站,破解反爬的方法不同,这里的一种方法是模拟成浏览器访问下面以哔哩哔哩举例1.使用平时用的浏览器自带的user-agent首先在浏览器打开b站,右键,点击检查然后点击network–>找到bilibili.com–>点击headers在最下面可以看到user-agent,这个就是浏览器的请求头注意:如果点击ne...原创 2019-10-27 20:48:41 · 1500 阅读 · 0 评论 -
正则匹配中的 *是什么意思 ( 限定符学习!)
*是一个限定符,用来修饰前一个字符或分组,限定匹配重复的数量为任意数量。以下是常用的限定符代码:符号次数*重复零次或更多次+重复一次或更多次?重复零次或一次{n}重复n次{n,}重复n次或更多次{n,m}重复n到m次...原创 2019-10-23 22:11:45 · 1817 阅读 · 0 评论 -
Python 文件对象方法使用详解 超详细!!
要使用文件对象方法,需要先使用open( )函数创建一个文件对象下面的例子假设已经创建了一个称为 f 的文件对象,并且均使用同一个txt文件,文件内容首先给出:f.read()为了读取一个文件的内容,调用 f.read(size), 这将读取一定数目的数据, 然后作为字符串或字节对象返回。size 是一个可选的数字类型的参数。 当 size 被忽略了或者为负, 那么该文件的所有内容都将被...原创 2019-10-22 21:22:37 · 896 阅读 · 0 评论 -
Python爬虫 将运行内容写入TXT文件
写爬虫时常常需要把爬取的数据保存下来做数据分析,这就需要用到python里的文件处理方法首先需要open()函数打开要写入的文件open() 将会返回一个 file 对象,基本语法格式如下:open(filename, mode)filename:包含了你要访问的文件名称的字符串值。mode:决定了打开文件的模式:只读,写入,追加等。所有可取值见如下的完全列表。这个参数是非强制的,默认...原创 2019-10-22 20:46:41 · 17037 阅读 · 0 评论 -
使用BeautifulSoup中的select选择器定位数据
定位数据时需要使用浏览器的开发者模式,将鼠标定位停留在对应的数据位置并右击,然后在快捷菜单中选择“检查”命令(这里应浏览器而变,例如我的搜狗浏览器是叫审查元素)下面的例子采用中国旅游网接下来右侧会弹出开发者界面,右侧高亮代码对应前面数据位置,在弹出的快捷菜单中选择’Copy’ > 'Copy Selector’命令,便可以自动复制路径,然后粘贴即可下面放下获取所有头条新闻的代码...原创 2019-08-01 10:25:34 · 2125 阅读 · 0 评论 -
爬虫正则匹配固定长度的数字
在写爬虫获取网页中网址的时候发现网址中有个参数是随机生成的六位数字,这就需要正则匹配数字提取出这个参数。但是如果正则表达式直接是\d发现只匹配一个数字要制定数字长度的话正则表达式为 \d{ } 括号中的数字就是你要匹配的长度item="sfsfsdfsdf123451ds:sdfa12312dfaf987654阿斯蒂芬123456789"pattern = re.compile(r"\d{...原创 2019-10-20 20:50:58 · 3022 阅读 · 0 评论 -
Python爬虫数据清洗(学习一点基础的正则表达式)
正则表达式概念正则表达式是对字符串(包括普通字符(例如,a 到 z 之间的字母)和特殊字符(称为“元字符”))操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑。在python中提供了re 库,它是关于正则表达式的一个库,里面包含了多种字符串匹配的方法,对于网站上爬取数据后清洗处理有很大的帮助。P...原创 2019-10-13 20:28:34 · 1065 阅读 · 0 评论