Python
文章平均质量分 60
小僧寒水寺无心
热爱生活,热爱编程
展开
-
AttributeError: module ‘io‘ has no attribute ‘ImageCollection‘,安装skimage (scikit-image)
PyCharm下使用使用io模块时出错:AttributeError: module ‘io’ has no attribute ‘ImageCollection’说明io模块里面没有ImageCollection这个函数,然后我跑去powershell和PyCharm第三方库下载重新下载io和skimage,发现这两个模块下载不了的,当我尝试在powershell 运行pip install skimage下载skimage时出现以下错误:*** Please install the scikit-原创 2021-03-04 00:06:59 · 750 阅读 · 1 评论 -
cmd下载的python包,pycharm中却无法使用(由于虚拟环境)
平时我们都习惯在cmd下下载Python相关的库,但是一到Pycharm就说没有该库,用不了(原因:pycharm创建工作目录的时候创建的是虚拟解释器,需要修改为公共解释器之后即可读取到本地的包)。这时你可在Pycharm添加第三方库,可以看该链接: https://blog.csdn.net/weixin_45880057/article/details/113958335.但是有时有些库是无法在Pycharm添加的。这里我将介绍一个万能的办法,就是把虚拟解释器修改为公共解释器。cmd下载的python原创 2021-02-23 00:46:13 · 5266 阅读 · 4 评论 -
关于安装Pycharm出现if you already have a 64-bit JDK及Failed to create JVM.JVM path的问题
本来想按照软件安装管家的方法更新一下Pycharm到2019中文版的,谁知道下载安装后打开不了,出现了一下问题,整整搞了两天,各种百度,太难了。后来才知道可能是没有删除一些文件文件的原因,正确的删除方法如下:1.打开电脑设置,进入一下界面,选择应用和功能2.然后把Pycharm删除即可3.然后重新安装,你就可以打开了...原创 2020-04-17 00:17:00 · 5953 阅读 · 3 评论 -
第二章 urrlib数据挖掘 2.8异常处理
在爬虫过程中我们难免会出现很多错误,但是对于一些不是很重要或者你想快速知道出错的原因,我们可以利用异常处理首先用一段代码运算一下:例如我们想访问多个网址,但是我们不想中途停下来import urllib.request as requestlist = [ "https://www.baidu.com/", "https://www.baidu.com/", "ht...原创 2020-04-14 22:01:21 · 151 阅读 · 0 评论 -
第二章 urllib数据挖掘(爬虫有道翻译及关于AttributeError: module 'urllib.request' has no attribute 'parse'的问题)
一开始运行以下代码出现了AttributeError: module ‘urllib.request’ has no attribute 'parse’的问题在这里插入代码片后来百度才知道request已经不是一个方法二是一个模块了,所以我们必须用导入模块的方法进行导入,import urllib.request as request而且parse是urllib里面的一个方法,所以直接u...原创 2020-04-14 11:54:16 · 1714 阅读 · 0 评论 -
如何通过树莓派/Python/smtp发送电子邮件
如何通过树莓派/Python/smtp发送电子邮件,本文用QQ邮箱示范获得QQ邮箱登录的授权码用Python写代码获得QQ邮箱登录的授权码若想通过代码登录QQ邮箱,首先要获得其登录的smtp授权码,否则通过其密码是无法登录的1.登录QQ邮箱,找到”设置“2.点击进去,然后找到”账号“3.点击进去,下拉找到smtp服务,并开启SMTP的服务4.然后按照其开启要求发送相关短信即可...原创 2020-03-28 15:10:04 · 3638 阅读 · 4 评论 -
第二章 urllib数据挖掘 2.6贴吧实战
2.6贴吧实战from urllib import request#请求网页页面,并返回相关内容def loadpage(url,filename): print("正在下载内容"+filename) header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KH...原创 2020-03-12 01:40:32 · 115 阅读 · 0 评论 -
第二章 urllib数据库挖掘2.6中文解码成URL
2.6中文解码成URLfrom urllib import requestimport urllib#对中文解码成URL的形式wed = {"wd":"北京"}url = "https://www.baidu.com/s?"urll="&tn=78040160_5_pg&ch=8"wdd = urllib.parse.urlencode(wed)url = url...原创 2020-03-11 16:11:33 · 126 阅读 · 0 评论 -
第二章 urllib数据库挖掘2.5使用代理IP
2.4使用代理IPimport randomfrom urllib import request#反爬虫1:判断请求是否是浏览器#反爬虫2:判断请求来源的IP#应对措施:使用代理IPproxylist = [ {"http":"121.31.102.124:8123"}, {"http":"121.237.149.247:3000"}, {"http":"139...原创 2020-03-11 02:49:52 · 134 阅读 · 0 评论 -
第一章 urllib数据挖掘 2.4自定义opener
1.8自定义opener`#自定义opener#我们使用的urlopen 就是一个特殊的opener(模块帮我们构建好的)#但是基本的urlopen()方法不支持代理(使用其他IP进行访问,以免被追踪)、cookie等其他的HTTP(文明访问)、HTTPS(加密访问)高级功能。#若要支持这些功能,可通过request.build.opener()方法创建自定义opener 对象#使用自定...原创 2020-03-11 02:09:17 · 148 阅读 · 0 评论 -
第一章 urllib数据挖掘 2.3何构建多个User-Agent
1.7如何构建多个User-Agentfrom urllib import requestimport randomimport re#导入正则表达式url = r'https://mini.eastday.com/?qid=msnxinwen'#爬取新闻头条#构造请求头#实际爬虫中,我们需要多次爬取,而服务器识别到多次请求都来于一个User-Agent,就会铏拦截,因此我们可以构造多...原创 2020-03-11 01:34:04 · 152 阅读 · 0 评论 -
第一章 urllib数据挖掘 2.2构造请求头伪造成浏览器等
1.6构造请求头伪造成浏览器等`from urllib import requestimport re#导入正则表达式url = r'https://www.baidu.com/'#构造请求头header={"User - Agent": "Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGec...原创 2020-03-11 01:13:04 · 150 阅读 · 0 评论 -
第二章urllib数据挖掘2.1第一个爬虫
1.5第一个爬虫from urllib import request#导入urllib库中的request模块#“r"的作用是以免出现转义字符,url是爬取的网页地址url = r'https://www.baidu.com/?tn=78040160_5_pg&ch=8'#向网页发送请求,通过read()读取response = request.urlopen(url).read...原创 2020-03-11 00:38:24 · 115 阅读 · 0 评论 -
第一章 初识爬虫1.4Get与Post请求
1.4Get与Post请求get是从服务器上获取信息,post是向服务器传送数据get请求参数显示,都显示在浏览器的网址上,HTTP服务器根据该请求所包含URL中的参数来产生响应内容,即“GET”请求的参数是URL的一部分。POST请求参数在请求提体当中,消息长度没有限制而且以隐式的方式进行发送,通常用来向HTTP服务器提交量比较大的数据(比如请求中包含许多参数或者文件上传等),请求的参数...原创 2020-03-10 15:50:22 · 148 阅读 · 0 评论 -
第一章 初识爬虫1.3URL
1.3URL1. URL的基本模式:scheme://host[:port#]/_/[?query-string][#anchor]2. scheme:协议(例如:http、https、ftp)3. host:服务器的IP地址或者域名 192.168.。。。4. port#:服务器端口(如果是走协议默认端口,缺省端口 80)5. query-string:参数,发送给http服务器的数...原创 2020-03-10 15:29:10 · 131 阅读 · 0 评论 -
第一章 初识爬虫1.2请求与响应
标题1.2请求与响应原创 2020-03-10 15:12:32 · 95 阅读 · 0 评论 -
第一章:初识爬虫1.1课程概要
标题1.1课程概要爬虫:爬取互联网上的信息爬虫可以干什么?日常生活中比如我们去淘宝看衣服,但是我们想快速找其中物美价廉的商品,于是我们很多人去翻查一个一个的页面去对比质量评价及价格等信息,这种通过人工手动的方法去查找我们需要的信息无疑是浪费人力和时间的过程。但是对于会应用爬虫的同学来说就不一样了,通过爬虫程序的自动运行,就可以快速找到我们要的信息。爬虫就业情况:学爬虫需...原创 2020-03-10 14:52:51 · 159 阅读 · 0 评论 -
decode与encode的作用
decode的作用就是把其他编码转换成Unicode编码,encode的作用就是把Unicode编码转换成其他编码。如下图所示:翻译 2020-02-13 00:56:55 · 859 阅读 · 0 评论 -
如何安装Python所需要的pygame库
pygame框架支持一个函数库,就是snaps库,利用snaps函数,我们可以在程序中方便添加文本、图像和声音。Windows系统关于下载pygame:1.Windows桌面的左下方右击Windows Start键2.出现以下菜单,选择Windows PowerShell3.出现以下界面,输入py -m pip install pygame --user再按下Enter键即可,等待安装...原创 2020-01-10 16:36:01 · 2642 阅读 · 0 评论