![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Python
python学习及脚本
大喵桑丶
这个作者很懒,什么都没留下…
展开
-
Python实现VMware自动化资源巡检
【代码】Python实现VMware自动化资源巡检。原创 2024-03-25 14:52:51 · 473 阅读 · 0 评论 -
Python读取excel数据并创建文件目录树-全解析过程及逻辑
通过这样的方式,我们使用列表来模拟目录栈的结构,每当遍历到一个新的目录时,我们将其加入目录栈中,并且可以根据需要清空目录栈中的部分内容,以保持正确的目录层级关系。当我们遍历到第四行时,目录栈中已经有了目录A,我们需要将目录D加入目录栈中,但同时我们需要清空目录栈中目录B和目录C以下的内容,所以目录栈变为。当我们遍历到第六行时,目录栈中已经有了目录A、目录D和目录E,我们需要将目录F加入目录栈中,所以目录栈变为。当我们遍历到第二行时,目录栈中已经有了目录A,我们需要将目录B加入目录栈中,所以目录栈变为。原创 2023-08-09 18:55:51 · 889 阅读 · 1 评论 -
if __name__ == ‘__main__‘详细解释及实操演示
当一个Python文件被执行时,Python解释器会首先将该文件作为一个模块导入,并执行其中的代码。此时,__name__的值为模块的名称。’ 是一个常见的用法,它的意思是:当该模块被直接执行时,该条件成立,执行其下的代码;这是因为在导入my_module模块时,Python会将该模块的名称赋值给__name__变量,因此if。’,而当模块被导入到其他模块中使用时,__name__的值就是模块的名称(不包含后缀.py)。因此,在上面的代码中,当我们直接运行my_module.py时,其中的if。原创 2023-06-01 11:19:18 · 14699 阅读 · 0 评论 -
通过Python脚本实现机房环控及服务器硬盘自动化巡检并推送飞书
- 系统:Centos7 - 环控数据:从环控系统SQL server数据库中获取 - 硬盘数据:从zabbix监控系统中获取 - 取值方法:ZabbixAPI,sqlcmd原创 2023-05-16 11:43:46 · 682 阅读 · 0 评论 -
Python脚本网页登录认证及状态巡检
其中password和我们在浏览器端输入的密码并不一样,因为加密了,虽然不知道加密方式,但是,不重要,脚本中这一块直接复制就好了。一.打开需要登录认证的网页,开启F12开发者模式,模拟登录查看请求中传递了几个参数。脚本中的3个传递参数信息及url信息我这边用了部分XXXXX代替,可自行修改。这里传递了3个参数,radio,mobile,password。需要登录的网页是无验证码的,有验证码的暂时没有去研究怎么弄。原创 2023-02-21 09:47:37 · 614 阅读 · 0 评论 -
Python脚本统计Zabbix主机组每周磁盘使用增量情况
该python脚本主要功能用于统计zabbix每个业务组下所有主机的磁盘每周使用增量情况原创 2023-02-10 14:16:40 · 241 阅读 · 0 评论 -
通过Python脚本批量修改华为交换机配置(通过eNSP验证可用)
Python批量配置交换机原创 2022-01-11 16:05:16 · 2215 阅读 · 0 评论 -
零基础:python爬虫的第一次
初学python,需要补习相关英语词汇,找到一个词本网站开始想尝试一下爬虫爬取词本历时4天,各种查资料,写出了第一个符合自己期望的python爬虫,纪念一下!# -*- coding: utf-8 -*-import requestsfrom bs4 import BeautifulSoupheaders={ 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Geck原创 2020-09-24 09:11:28 · 99 阅读 · 0 评论 -
基于Python通过SSH方式批量备份交换机(华为+Cisco)【转载】
基于Python通过SSH方式批量备份交换机(华为+Cisco)【转载】转载 2022-01-10 16:43:18 · 1941 阅读 · 3 评论 -
python爬虫的第二次(知乎pyhton英文单词爬取)
python爬虫的第二次(知乎pyhton英文单词爬取)爬取某个帖子的python相关的英文单词,以过滤中文,方便导入墨墨词本,但是还有些带()注释的暂不知道怎么去除,先写出来,后续处理,附codeimport requestsfrom bs4 import BeautifulSoup# 服务器反爬虫机制会判断客户端请求头中的User-Agent是否来源于真实浏览器,所以,我们使用Requests经常会指定UA伪装成浏览器发起请求headers = {'user-agent': 'M.原创 2020-09-25 11:08:13 · 412 阅读 · 1 评论