![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
依剑仗天涯
实践是检测真理的唯一方法!
展开
-
【python之美】减少人工成本之合并文本内容_5
特产原创 2024-02-15 13:13:54 · 532 阅读 · 0 评论 -
【python之美】减少人工成本之批量拿取文件名保存_4
特产原创 2024-02-15 11:48:50 · 368 阅读 · 0 评论 -
【python之美】减少人工成本之批量去除首行_3
特产原创 2024-02-15 11:38:03 · 375 阅读 · 0 评论 -
【python之美】减少人工成本之批量修改TXT文件名称_2
特产原创 2024-02-15 11:10:48 · 379 阅读 · 0 评论 -
【python之美】减少人工成本之创建文件并写入数据_1
特产原创 2024-02-15 10:54:56 · 450 阅读 · 0 评论 -
定时执行脚本
特产。原创 2023-11-22 13:54:38 · 452 阅读 · 2 评论 -
Faker的妙用---造数
Faker的强大用处原创 2022-11-21 15:51:58 · 616 阅读 · 0 评论 -
如何将python转成exe
以管理员身份运行命令指示符,输入pip install pyinstall来安装pyinstall,安装完成后,输入pyinstall -F 文件位置.py,pyinstaller -F -i b.ico 00.py # b.ico是照片修改后的格式,00.py是自己写的便宜文件可执行文件00.exe就在dist文件夹里面...原创 2021-08-10 16:26:03 · 114 阅读 · 0 评论 -
python怎么读取xls文件
老样子:先上代码import xlrdexcel = xlrd.open_workbook("C:/Users/Administrator/Desktop/date.xls") # 打开excel文件sheet = excel.sheet_by_index(0) # 获取工作薄rows: list = sheet.row_values(0) # 获取第一行的表头内容index = rows.index('username') # 获取age列所在的列数: 1,也可以换成"passwo原创 2021-07-28 10:47:28 · 21172 阅读 · 0 评论 -
python怎么读取txt文件
with open("C:/Users/Administrator/Desktop/date.txt", "r") as f: # txt文件目录 data = f.readlines() # 读取多行 print(data[1]) # 取第2个数据PS:看效果原创 2021-07-28 10:38:53 · 1909 阅读 · 0 评论 -
Python自动化键盘事件详解
from pyKeyboard import *from pyMouse import *m = PyMouse() #创建鼠标事件k = PyKeyboard() #创建键盘事件m.click(1157,470) #鼠标点击选中该输入框k.type_string("123") #输入密码k.tap_key(k.enter_key) 补充:m.click(x, y, button, n) -- 点击,想x,y坐标,b..原创 2021-02-04 18:21:50 · 2615 阅读 · 2 评论 -
python自动化键盘和鼠标事件的万能公式
1、键盘事件的公式操作from selenium import webdriverfrom selenium.webdriver.common.keys import Keysimport timedriver = webdriver.Chrome()driver.maximize_window()driver.get("http://www.baidu.com")time.sleep(3)driver.find_element_by_id('kw').send_keys('se原创 2021-01-14 15:24:09 · 217 阅读 · 0 评论 -
python自动化
driver = webdriver.Chrome() url = 'http://www.baidu.com' self.driver.get(url) time.sleep(1) driver.maximize_window() driver.implicitly_wait(5)driver.back() # 返回前一个页面driver.forward() # 前进前一个页面driver.refresh() # 刷新当前页面click() # 点击...原创 2021-01-13 14:20:25 · 158 阅读 · 0 评论 -
Django简单实用
Django 教程一、Django 安装 1、Django 版本对应的 Python 版本: 2、Django下载地址: 3、安装(无需下载) 4、验证安装 cmd进入python 获取版本信息 二、创建第一个项目 1、在合适位置创建一个目录 2、打开DOS进入到上一步创建的目录下 3、输入:django-admin startproject project 4、目录层级说明 manage.py __init__.py原创 2020-12-30 18:18:38 · 345 阅读 · 0 评论 -
python安装虚拟环境
一、安装虚拟环境:我们在一台机器上可以安装多个python版本,为了使每个版本的环境相互不受干扰,可以安装虚拟环境,安装方法如下:1、安装virtualenv:pip install virtualenv2、新建名为venv的虚拟环境:virtualenv venv3、进入新环境:source venv/bin/activate4、退出:deactivate二、安装requests库:>>>pip install requests三、http测试工具:一原创 2020-12-28 09:59:52 · 246 阅读 · 0 评论 -
抓取照片保存桌面
import requestsfrom bs4 import BeautifulSoupimport osfrom io import BytesIOfrom PIL import Imageimport timeurl = "http://www.yestone.com/gallery/1501754333627"headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64)"}r = requests.get(.原创 2020-12-27 09:29:59 · 155 阅读 · 0 评论 -
简单入门的爬虫实例
1.爬取强大的BD页面,打印页面信息2.常用方法之get方法实例,下面还有传参实例3. 常用方法之post方法实例,下面还有传参实例4. put方法实例5.常用方法之get方法传参实例(1)6.常用方法之get方法传参实例(2)7.常用方法之post方法传参实例(2) 和上一个有没有很像8.关于绕过反爬机制,以zh姐姐为例9.爬取信息并保存到本地,因为目录关系,在D盘建立了一个叫做爬虫的文件夹,然...原创 2020-12-26 09:54:32 · 143 阅读 · 0 评论 -
Python安装pyinstaller成功(亲测可行)
安装这个pyinstaller包好几次了,怎么也不行,怎么办呢?踩过的坑:pip更新到最新后,安装pyinstaller,失败了 从社区版的pycharm换到专业版,再安装pyinstaller,失败了其实很简单,居然多走了好几天的弯路,依次安装pip install wheel pip install pypiwin32 pipinstallpywin32-ctypes pip3 install pyinstaller --no-use-pep517P...原创 2020-12-24 15:50:42 · 651 阅读 · 2 评论 -
爬虫之实战篇(一)
# 抓取电影的所需信息# actor : 大明import requestsimport sysimport timefrom bs4 import BeautifulSoupurl = 'https://vip.1905.com/?fr=homepc_menu_vip'headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT...原创 2020-11-03 10:52:48 · 1928 阅读 · 0 评论 -
爬虫之实战篇(二)
# 抓取电影的所需信息(健全上次的代码)# actor : 大明import requestsimport sysimport timefrom bs4 import BeautifulSoupurl = 'https://vip.1905.com/?fr=homepc_menu_vip'headers = { 'User-Agent': 'Mozilla/5....原创 2020-11-03 10:52:22 · 16945 阅读 · 0 评论 -
简单粗暴的抓取糗百的段子——1
首先我们用到的软件是工具是pycharm,py3.6版本,工具包是 requests 和 bs4,没下载的抓紧时间哈~~~接着看下效果图吧~空行没有消除,跟题目很相仿~~~简单粗暴,这里只说方法 1、导入工具包 import requests from bs4 import BeautifulSoup 2、先写一个主函数 if __...原创 2018-10-11 10:41:28 · 213 阅读 · 0 评论 -
公司选取不同数据库的原因
下面以3中承建的数据库为例:mysql:普及性:数据库的先驱简单性:简单易学成本低:免费良好的支持灵活性和可扩展性mongodb:无需数据结构的限制完全的索引支持方便扩展redis:支持多的数据类型主从复制持久化---PS : 这些是个人的一些见解,有不足之处请私信给我...原创 2018-05-15 22:58:11 · 312 阅读 · 0 评论 -
爬虫之解析工具---re(四)
概念:正则表达式对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑正则表达式匹配过程:依次拿出表达式和文本中的字符比较 如果每一个字符都能匹配,则匹配成功;一旦有匹配不成功的字符则匹配失败 如果表达式中有量词或边界,这个过程会稍微有一些不同语法及相关注释:一般字符 ...原创 2019-05-16 14:24:50 · 261 阅读 · 0 评论 -
爬虫之解析工具---Xpath(三)
XPath 是一门在 XML 文档中查找信息的语言。可用来在 XML 文档中对元素和属性进行遍历话不多说,直接讲技术点。 技术要点 选取节点 列出了一些路径表达式以及表达式的结果,如下: 谓语 谓语是来查找某个特定的节点或者包含某个指定的值得节点谓语被嵌在后面的方括号中 .选取未知节点 选取若干路径 使用 首先我们使用 ...原创 2019-05-16 13:33:02 · 252 阅读 · 0 评论 -
爬虫之解析工具---BeautifulSoup(二)
Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。 Beautiful Soup已成为和lxml、html5lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度使用 首先导入bs4库,创建BeautifulSoup对象。 soup的用法 标签中有name 和 attrs,可以利用soup加 标签名 轻...原创 2019-05-16 10:23:50 · 298 阅读 · 0 评论 -
lambda 、map、reduce的简单使用
lambda:这是Python支持一种有趣的语法,它允许你快速定义单行的最小函数 实例:(2与5的数字和) lmap语法:map(function, sequence[, sequence, ...]) -> list实例:(1-5的平方)reduce语法:reduce(function, sequence, starting_value) 实例:(1-10的数字和) ...原创 2018-05-23 20:45:09 · 2192 阅读 · 0 评论 -
快速用lambda, reduce, map求阶乘之和
用1行代码求 1! + 2! + 3! + ... + 10!求阶乘reduce函数用来做累积累和def fact(n) reduce(lambda x, y: x * y, range(1, n + 1))精简成lambda函数lambda n: reduce(lambda x, y: x * y, range(1, n + 1))映射列表,求1到10的阶乘,返回一个列表map(fact...原创 2018-05-23 19:58:28 · 1563 阅读 · 0 评论 -
python的内存管理
Python内存管理机制主要包括以下三个方面:引用计数机制垃圾回收机制内存池机制python采用的是引用计数机制为主,标记-清除和分代回收两种机制为辅的策略...原创 2018-06-04 10:31:48 · 110 阅读 · 0 评论 -
python 去重
def func1(one_list): ''''' 使用集合,个人最常用 ''' return list(set(one_list)) def func2(one_list): ''''' 使用字典的方式 ''' return {}.fromkeys(one_list).keys() def func3(...原创 2018-06-04 10:20:00 · 757 阅读 · 0 评论 -
python中多进程+协程的使用
首先强调背景: 1、GIL是什么? GIL的全称是Global Interpreter Lock(全局解释器锁),为了数据安全所做的决定。 GIL全局解释器锁: 同一进程下的多线程共享数据,共享意味着竞争,竞争带来无序,为了数据安全所以需要加锁进行数据保护,GIL本质是一把 互斥锁,使并发变为串行,保证同一时间只有一条线程访问解释器级别的数据,这样就保证了解释...原创 2018-05-26 14:31:51 · 5999 阅读 · 0 评论 -
创建虚拟环境 并 快速进入虚拟环境
我是在阿里云安装的虚拟环境先安装 mkvirtualenvpip install mkvirtualenvnsexport WORKON_HOME=/Envs/virtualenvs_workons(在Envs中创建一个存放虚拟环境的目录virtualenvs_workons)sudo find / -name virtualenvwrapper,sh ( Envs 是在root下创建...原创 2018-05-07 19:56:38 · 6647 阅读 · 2 评论 -
vim命令
1. 关于Vimvim是我最喜欢的编辑器,也是linux下第二强大的编辑器。 虽然emacs是公认的世界第一,我认为使用emacs并没有使用vi进行编辑来得高效。 如果是初学vi,运行一下vimtutor是个聪明的决定。 (如果你的系统环境不是中文,而你想使用中文的vimtutor,就运行vimtutor zh)1.1 Vim的几种模式正常模式:可以使用快捷键命令,或按:输入命令行。插入模式:可以...转载 2018-05-05 13:31:07 · 131 阅读 · 0 评论 -
==和is
python 中的对象包含三要素:id、tpye、value其中id用来唯一标示的对象,tpye标识对象的类型,value是对象的值a=b,a==b is 判断的是 a 对象是否就是 b对象 ,是通过id来判断;== 判断的是 a 对象的值是否和 b 对象的值相等,是通过value来判断的。===================分割线==============================...原创 2018-05-05 12:35:51 · 166 阅读 · 0 评论 -
爬虫的应对措施
网站提供者检测爬虫的手段:1、检查User-Agent 应对:构造User-Agent和refer字段2、检测用户行为,如同一个IP短时间内频繁登录 应对:代理IP,设置sleep时间3、动态页面 应对:Selenium和phantomJS为了防止在爬取中被对方禁止,下面我们在Scrapy中实现如下: 1、禁止Cookie 2、设置下载延时 ...原创 2018-05-03 20:43:11 · 409 阅读 · 0 评论 -
*args和*kwargs的区别
对于*args和**kwargs在函数中我们可以称之为参数组,但是这两个还是有区别的1:*args的功能:------接收N个位置参数,转换成元组tuple形式2:**kwargs的功能------接收N个关键字参数,转换成字典dict形式3:位置参数一定要在关键字参数之前,也就是(*args,**kwargs)...原创 2018-05-03 20:39:47 · 846 阅读 · 0 评论 -
python中列表,元组,字典,字符串相互转换
#1、字典dict = {'name': 'Zara', 'age': 7, 'class': 'First'}#字典转为字符串,返回:<type 'str'> {'age': 7, 'name': 'Zara', 'class': 'First'}print (type(str(dict)), str(dict))#字典可以转为元组,返回:('age', 'name', 'c...原创 2018-05-23 21:49:42 · 353 阅读 · 0 评论 -
用装饰器实现模拟登陆
def test1(func): def test2(root,key): if root == "root" and key ==123: print("您的用户名和密码输入正确") else: print("您的用户名或密码输入错误") return test2@test1def test3...原创 2018-05-23 21:57:23 · 198 阅读 · 0 评论 -
python抓取页面中主要信息的方法(二)
天下的网站没有我爬不到的,只有不想爬的(有吹牛逼之嫌)。Python2慢慢被Python3所代替了,主要以3为主,话不多说,直接看技术点吧正则表达式re(难) 获取<tr></tr>标签之间内容 获取<a href..></a>超链接之间内容 获取URL最后一个参数命名图片或传递参数 爬取网页中所有URL链接 爬取网页标题t...原创 2019-09-18 21:41:57 · 139 阅读 · 0 评论 -
python获取页面数据的方法(一)
天下的网站没有我爬不到的,只有不想爬的(有吹牛逼之嫌)。Python2慢慢被Python3所代替了,主要以3为主,话不多说,直接看技术点吧爬取的网站:url = ‘https://www.baidu.com/’requests的方法 import requestsurl = 'https://www.baidu.com/'req = requests.get(url)...原创 2019-05-15 15:52:00 · 5736 阅读 · 2 评论 -
给指定的人、群或者公众号发自定义消息
生活中的乐趣1.需要导入的包# 线程中每隔多长时间启动一次from threading import Timer# 通过机器人对象bot的chats(),friends(),groups(),mps()方法,可以分别获取到机器人的所有聊天对象from wxpy import *# 定义一个机...原创 2018-09-26 17:17:04 · 902 阅读 · 0 评论