自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

program_Mr_lu的博客

希望可以和各位共同进步

  • 博客(21)
  • 收藏
  • 关注

原创 Pyinstaller 打包程序出现.No module named 错误

当我们使用Python打包成exe的时候,会出现 No module named 'xxxxx’, 这个表示没有这个模块,有很多人就会安装,或者执行一下源代码,发现有这个模块或者可以执行源程序。我也是百度了很多遍终于把这个问题解决了。pyinstaller -F xx.py --hidden-import sklearn.neighbors.typedefs执行这条命令就可。...

2021-06-24 14:01:35 1280

原创 PyQt5基础学习

pyqt5-基础PyQt5是一套来自Digia的Qt5应用框架和Python的粘合剂。支持Python2.x和Python3.x版本。PyQt5以一套Python模块的形式来实现功能。它包含了超过620个类,600个方法和函数。它是一个多平台的工具套件,它可以运行在所有的主流操作系统中,包含Unix,Windows和Mac OS。PyQt5采用双重许可模式。开发者可以在GPL和社区授权之间选择。PyQt5的类被划分在几个模块中,下面列出了这些模块:QtCore :模块包含了非GUI的功能设计。这个

2021-06-11 14:58:17 596 1

原创 Ubuntu下MySQL中文乱码的问题解决

当我们在ubuntu的mysql中查询数据的时候,显示的是文字是问号。首先找到/etc/mysql 下是否有 my.cnfvim /etc/mysql/my.cnf在最后添加[client]default-character-set=utf8[mysqld]default-character-set=utf8[mysql]default-character-set=utf8然后重启MySQL:/etc/init.d/mysql start登录mysql查询数据,看看显示的是否是

2021-05-07 19:21:52 209

原创 ubuntu进入数据库报Can‘t connect to local MySQL server through socket ‘/var/run/mysqld/mysqld.sock‘ (2)的错误

这个是我解决的办法: 可能是权限的问题。首先在终端上:cd /var/lib/mysql 查看是否有mysql再输入:chown -R mysql:mysql /var/lib/mysql接着启动服务器,终端输入:/etc/init.d/mysql start然后登录mysql 看看可以启动了吗?mysql -u root -p如果有更高的解决办法请留意评论。一起讨论!...

2021-04-23 14:56:05 1043 1

原创 一起学python爬虫第七天

今天给大家分享代理服务器和json数据。代理服务器就 像我们生活中的中介一样,将自己的需求传递给另一个人。一、代理设置在爬虫的过程中,我们经常会遇见很多网站采取了防爬取技术,或者说因为自己采集网站信息的强度和采集速度太大,给对方服务器带去了太多的压力。如果你一直用同一个代理 ip 爬取这个网页,很有可能 ip 会被禁止访问网页,所以基本上做爬虫的都躲不过去 ip 的问题。(一)代理基本原理代理实际上指的就是代理服务器,英文叫作 proxy server,它的功能是代理网络用户去取得网络信息。形

2021-01-08 19:35:57 248 1

转载 最全PyCharm 常用快捷键

最全PyCharm 常用快捷键 PyCharm 常用快捷键 1.1 编辑1.2 查找/替换(Search/Replace)1.3 运行(Running)1.4 调试(Debugging)1.5 导航(Navigation)1.6 搜索相关(Usage Search)1.7重构(Refactoring)1.8 控制VCS/Local History1.9 模版(Live Templates)...

2021-01-05 20:16:01 482

原创 一起学python爬虫第六天

上一篇文章我们了解到了cookie和session,今天我们通过两个案例,对比一下!!!一、cookie将浏览器中的cookie信息封装到请求头中#需求:将个人首页保存到本地import requests# 请求头headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/5

2021-01-05 19:27:51 162 3

原创 一起学python爬虫第五天

今天将一下cookie和session什么是 cookie 和 session?cookie 是网站用来辨别用户身份,进行会话跟踪,存储在本地终端上的数据。session(会话)本来含义是指有始有终的一系列动作和消息。在 web 中,session 主要用来在服务器端存储特定用户对象会话所需要的信息。cookie 和 session 产生的原因:http 协议是一个无状态协议,在特定操作的时候,需要保存信息,进而产生了 cookie和 sessioncookie 原理:cookie 由服务器

2020-12-28 21:35:47 150

原创 一起学python爬虫第四天

今天我们写一爬取新浪新闻的小项目。爬取一个数据的时候我们第一步肯定就是要找到这个网址,比如我们去找朋友去玩,首先肯定得知道这个朋友家的地址吧。http://search.sina.com.cn/url双手奉上进入网页按下F12,第一次去朋友家肯定得需要确认一下是不是朋友如果不是我们就继续找,如果是就是拜访朋友import requestsresponse = requests.get(url='http://search.sina.com.cn/')print(response.te

2020-12-24 21:14:26 155 1

原创 一起学python爬虫第三天

今天我们来一起做爬虫的第一个项目。首先应该了解一下requests。Requests简介——让HTTP服务人类1、requests 库简介Urllib 和 Requests 模块是发起 http 请求最常见的模块。虽然 Python 的标准库中 urllib 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称“http for Humans”,说明使用更简洁方便。Requests继承了urllib的所有特性。Requests支持http连

2020-12-23 21:24:05 220

原创 一起学python爬虫第二天

今天给大家分享一些http和https,首先请大家看两幅图:这两张图片的协议名不一样。一、http和httpsHTTP协议(HyperText TransferProtocol,超文本传输协议):就是服务器和客户端进行数据交互的一种形象。比如:(智取威虎山片段,黑话就是http)土匪:蘑bai菇,你du哪路?什么价?(什么人?到哪里zhi去?)  杨子荣:哈!想啥来啥,想吃奶来了妈妈,想娘家的人,孩子他舅舅来了。(找同行)  杨子荣:拜见三爷!  土匪:天王盖地虎!(你好大的胆!敢来气

2020-12-21 21:21:49 215 1

原创 一起学python爬虫第一天

一、为什么要做爬虫?我相信大家肯定会异口同声的回答:肯定是为了挣钱呗,要不然学这个干嘛。但是有喜欢计算机的很喜欢专研各种领域的知识点。尤其是我们这个时代就是属于数据的时代,当我们需要网络上的很多数据的时候,这个时候我们不能一个一个的复制下来,这时候就会用到爬虫。爬虫的主要作用就是爬取您所需要的数据,到您的指定存储的地址。二、爬虫是什么呢?(一)爬虫的定义**很官方的含义:**网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。**简单的来说:**就是用事先写好的程序或代码,在网络

2020-12-18 20:22:49 422 3

原创 斗鱼直播爬取

from selenium import webdriverfrom lxml import etreeimport time# 调用goole浏览器driver = webdriver.Chrome(executable_path=chrome存放地址)# 浏览器变大driver.maximize_window()driver.get(url='https://www.douyu.com/g_LOL')# 死循环 获取下一页while True: time.sleep(3

2020-12-16 15:03:00 384

原创 Can‘t connect to MySQL server on ‘localhost‘ (10061)

在我们有时候登录mysql的时候会遇到 Can't connect to MySQL server on 'localhost' (10061)这个错误,我解决的时候也百度了好多方法,但是都没有解决,最后自己摸索出来。1、首页我们需要在安装mysql的文件夹中把my.ini 和 data 删除2、win 输入 cmd 进入管理员3、输入 mysqld --remove mysqlmysqld --remove mysql4、输入 mysqld --initialize-insecu

2020-12-14 17:26:37 165

原创 每个进制之间的转换

什么是进制?进制也就是进位计数制,是人为定义的带进位的计数方法(有不带进位的计数方法,比如原始的结绳计数法,唱票时常用的“正”字计数法,以及类似的tally mark计数)。 对于任何一种进制—X进制,就表示每一位置上的数运算时都是逢X进一位。 十进制是逢十进一,十六进制是逢十六进一,二进制就是逢二进一,以此类推,x进制就是逢x进位。我们常用的进制有:二进制、八进制、十进制、十六进制。** 进制转换** 在数字后面加上不同的字母来表示不同的进位制。B(Binary)表示二进制,O(Octal)表示八进

2020-12-10 21:43:01 1937 1

原创 网易云歌手爬取

#需求:获取每一个大分类下的每个子分类下的所有歌手名#思路:#1.获取大分类的URL,并请求#2.获取小分类的URL,并请求#3.获取歌手名import requestsfrom lxml import etree#定义请求函数def get_requests(url): response = requests.get(url=url, headers=headers) return etree.HTML(response.text)def get_big_typ

2020-12-08 15:01:23 213

转载 【转】花 10 分钟看一看,少走 30 年弯路

前言HP 大中华区总裁孙振耀退休感言 :如果这篇文章没有分享给你,那是我的错。如果这篇文章分享给你了,你却没有读,继续走弯路的你不要怪我。如果你看了这篇文章,只读了一半你就说没时间了,说明你已经是个“茫”人了。如果你看完了,你觉得这篇文章只是讲讲大道理,说明你的人生阅历还不够,需要你把这篇文章珍藏,走出去碰几年壁,头破血流后再回来,再读,你就会感叹自己的年少无知。如果你看完了,觉得很有道理,然后束之高阁,继续走进拥挤的地铁,依然用着自己昨日的观念来思考自己的未来,你的人生也将继续重复着昨日的状况

2020-12-08 10:47:35 626

原创 个人-王者荣耀皮肤爬取

#王者荣耀皮肤抓取#URL:https://pvp.qq.com/web201605/herolist.shtml#需求:获取所有英雄的所有皮肤并下载到本地import requests, json, osheaders = { 'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36'

2020-12-07 15:40:04 331

原创 异常报错:Message: Currently focused window has been closed.

selenium.common.exceptions.NoSuchWindowException: Message: Currently focused解决方案:第一步:打开IE,工具->Internet选项->高级->重置,弹出窗口,选项“删除个人设置”打上勾,确定重置,回到原始默认状态;(如果出现需要关闭打开的,就在资源管理器中找到你打开的相关文件,然后关闭再进行操作)第二部:打开IE,工具->Internet选项->安全 四个图标都中的启用保护模式都勾选然后

2020-11-26 17:08:11 1347

原创 list index out of range错误

div_list = html.xpath('//div[@class="detail"]')for div in div_list: # 获取书名 title = div.xpath('./div[@class="title"]/a/text()')[0] # 获取评分 rating_nums = div.xpath('.//span[@class="rating_nums"]/text()')[0] #获取评论 pinglun = div.xpath('

2020-11-26 13:53:18 478

原创 __init__() got an unexpected keyword argument ‘options‘

我们在学习爬虫中如果出现这个错误:Traceback (most recent call last):File “E:/pythonwork/第三阶段/day06/1.selenium结合Chrome浏览器.py”, line 18, in driver = webdriver.Chrome(executable_path=r’E:\软\chromedriver_win32\chromedriver.exe’, options=options)TypeError: init() got an une

2020-11-26 10:03:07 9211 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除