python大家庭
文章平均质量分 83
python大家庭
秃了也弱了。
即使没有万全准备,也要勇敢迈出第一步。无论远方的风雨有多大、路有多难走。风里雨里陪伴你们,赠人玫瑰,手有余香。在技术领域,我会一如既往的坚持下去。
展开
-
Python自带的GUI库:Tkinter库使用手册(未完善)
Tkinter 使用纯 Python 语言开发,与 C/C++ 开发的 Qt 框架相比,Tkinter 有自身的局限性,比如性能、功能丰富程度等都不及 Qt,因此它只适合开发一些简单的程序,比如计算器的界面,或者一个简易的聊天窗口等。Tkinter(即 tk interface,简称“Tk”)本质上是对 Tcl/Tk 软件包的 Python 接口封装,它是 Python 官方推荐的 GUI 工具包,属于 Python 自带的标准库模块,当您安装好 Python 后,就可以直接使用它,而无须另行安装。原创 2024-01-09 09:12:20 · 962 阅读 · 0 评论 -
python使用easyocr识别文字,准确率超高!
下载检测模型:CRAFT,然后下载 zh_sim_g2(中文语言) 和 english_g2(英文语言)即可,如果你有其它语言需要识别也可下载其它语言。解压后的.pth文件放入。原创 2023-12-25 21:00:03 · 857 阅读 · 0 评论 -
python操作windows窗口,python库pygetwindow使用详解
pygetwindow是一个Python第三方库,用于获取、管理和操作窗口。它提供了一些方法和属性,使得在Python程序中可以轻松地执行各种窗口操作。通过pygetwindow库,你可以:获取当前系统中所有打开窗口的列表。根据窗口标题、窗口句柄等属性获取特定的窗口对象。激活、最小化、最大化和关闭窗口。获取和设置窗口的位置、大小和几何属性。判断窗口是否最小化或可见。等待窗口准备好,以及等待窗口存在。移动和调整窗口的位置和大小。原创 2023-11-21 08:49:58 · 4119 阅读 · 0 评论 -
python模块之pywin32使用文档,python操作windowsAPI
Windows API(Application Programming Interface)是一组函数、数据结构、指令集等的集合,用于操作和控制Windows操作系统的各种功能和特性。它提供了一种通过编程方式与Windows进行交互的接口。Windows API允许开发人员使用编程语言(如C/C++、Python等)调用和使用Windows操作系统的内部功能,如创建和管理进程、访问和修改文件系统、读取和写入注册表、绘制图形、操作窗口和控件、网络通信等。原创 2023-11-15 13:43:19 · 4959 阅读 · 4 评论 -
python操作windows桌面实现鼠标、键盘操作,python之pyautogui库文档详解
PyAutoGUI是一个纯Python的GUI自动化工具,其目的是可以用程序自动控制鼠标和键盘操作,多平台支持(Windows,OS X,Linux)。PyAutoGUI可以模拟鼠标的移动、点击、拖拽,键盘按键输入、按住操作,以及鼠标+键盘的热键同时按住等操作,可以说手能动的都可以。PyAutoGUI支持Python 2.x和Python 3.x。原创 2023-09-22 13:52:35 · 3152 阅读 · 0 评论 -
python+Tesseract OCR实现截屏识别文字
(这里不太建议勾选下载语言包,因为下载速度实在太慢。本教程后续会介绍如何拓展语言包,但如果已经翻墙的话,可以忽略这个建议。下载地址:https://digi.bib.uni-mannheim.de/tesseract/官方网站:https://github.com/tesseract-ocr/tesseract。语言包地址:https://github.com/tesseract-ocr/tessdata。官方文档:https://github.com/tesseract-ocr/tessdoc。原创 2023-09-20 08:44:16 · 795 阅读 · 0 评论 -
Python爬虫基础(五):使用scrapy框架
Scrapy 是一个为了抓取网页数据、提取结构性数据而编写的应用框架,该框架是封装的,包含 request (异步调度和处理)、下载器(多线程的 Downloader)、解析器(selector)和 twisted(异步处理)等。对于网站的内容爬取,其速度非常快捷。scrapy终端,是一个交互终端,供您在未启动spider的情况下尝试及调试您的爬取代码。其本意是用来测试提取数据的代码,不过您可以将其作为正常的python终端,在上面测试任何的python代码。原创 2023-09-19 07:50:05 · 1288 阅读 · 0 评论 -
Python爬虫基础(四):使用更方便的requests库
我们右键->查看网页源代码,全局搜索,发现__VIEWSTATE 和__VIEWSTATEGENERATOR 是保存在页面隐藏域中的数据,一般情况看不到的数据 都是在页面的源码中,所以我们需要获取页面的源码 然后进行解析就可以获取了。此处我们获取验证码图片,不能通过request直接获取,因为要确保每次请求的session是相通的,所以我们需要通过session来获取验证码图片。但是,__VIEWSTATE 和__VIEWSTATEGENERATOR ,看着像是动态生成的,我们如何获取呢?原创 2023-09-16 08:48:45 · 1045 阅读 · 0 评论 -
Python爬虫基础(三):使用Selenium动态加载网页
(1)Selenium是一个用于Web应用程序测试的工具。(2)Selenium 测试直接运行在浏览器中,就像真正的用户在操作一样。(3)支持通过各种driver(FirfoxDriver,IternetExplorerDriver,OperaDriver,ChromeDriver)驱动真实浏览器完成测试。(4)selenium也是支持无界面浏览器操作的。模拟浏览器功能,自动执行网页中的js代码,实现动态加载(1)是一个无界面的浏览器(2)支持页面元素查找,js的执行等。原创 2023-09-14 09:33:46 · 2632 阅读 · 0 评论 -
Python爬虫基础(二):使用xpath与jsonpath解析爬取的数据
JsonPath只能解析json文件,而不是像xpath既可以解析文件,也可以直接解析字符串。所以说,想要使用JsonPath解析JSON,只能将爬取的json数据保存到本地之后,才能进行解析。XPathJSONPath表示根元素当前元素. or []子元素n/a父元素//递归下降,JSONPath是从E4X借鉴的。通配符,表示所有的元素n/a属性访问字符[][]子元素操作符[,]连接操作符在XPath 结果合并其它结点集合。JSONP允许name或者数组索引。原创 2023-09-12 11:06:31 · 1774 阅读 · 0 评论 -
Python爬虫基础(一):urllib库的使用详解
urllib是一个python自带的库,不需要手动安装。urllib库用于操作网页 URL,并对网页的内容进行抓取处理。urllib 包 包含以下几个模块:urllib.request - 打开和读取 URL。urllib.error - 包含 urllib.request 抛出的异常。urllib.parse - 解析 URL。urllib.robotparser - 解析 robots.txt 文件python爬虫主要用到的urllib库中的request和parse模块。原创 2023-09-12 11:06:13 · 2731 阅读 · 0 评论 -
手写一个摸鱼神器:使用python手写一个看小说的脚本,在ide中输出小说内容,同事直呼“还得是你”
我们可以爬取关键信息:章节名和章节的url,遍历章节名,通过章节的url即可获取每一章的内容!小说章节列表:http://www.yetianlian.cc/yt4017/然后输入要阅读的章节,不断的按回车键,就可以一直刷出内容了!每一章的内容,也可以很轻松的得到。原创 2023-09-12 08:11:29 · 3101 阅读 · 3 评论 -
windows从0搭建python3开发环境与开发工具
VSCode(全称:Visual Studio Code)是一款由微软开发且跨平台的免费源代码编辑器,VSCode 开发环境非常简单易用。,一般就下载 executable installer,x86 表示是 32 位机子的,x86-64 表示 64 位机子的。选择Customize installation,自定义安装路径,安装完成后会自动配置环境变量。VSCode 安装也很简单,打开官网。大功告成,可以进行python开发了!打开 WEB 浏览器访问。原创 2023-09-05 09:27:13 · 208 阅读 · 0 评论