Python黑魔法知识库整理

目录

1.如何简单的在Windows机器上下载Linux服务器的文件?

2.如何在遍历列表的同时带上索引?

3.如何快速监控系统的各项性能?

4.识别图片中的文字的高级方法?

5.如何在内网安装所需的python模块包?

6.python中命令行超参数的使用?

7.简单快速的遍历函数?

8.如何实现Windows浏览器中可视化界面?

9.如何在配置文件configparser中获取列表?

10.python中的模糊匹配

11.python中爬取网页数据的模块


1.如何简单的在Windows机器上下载Linux服务器的文件?

在LINUX服务器上执行python -m SimpleHTTPServer 可以在浏览器上输入http:IP地址:8000提供Linux服务器中文件的下载功能。

2.如何在遍历列表的同时带上索引?

python的enumerate函数可以对列表进行加索引的遍历,

例子: a = ['python','english','c++']

for i,result in enumerate(a):

print i,result

3.如何快速监控系统的各项性能?

python的psutil模块可以实现对系统的cpu,内存,硬盘等的全方位的监控。

4.识别图片中的文字的高级方法?

python实现图片中的文字识别可以用百度的 from aip import AipOcr  #调取百度AI接口所需库

5.如何在内网安装所需的python模块包?

(1)最严谨的方法是在外网同环境服务器中使用以上相同方法安装同环境miniconda

(2)在外网环境中下载python项目需要的相关依赖whl安装包:

pip download -d (存放地址) -i https://mirrors.aliyun.com/pypi/simple (包名)

pip download -d d://xlrd -i https://mirrors.aliyun.com/pypi/simple xlrd

(3)在内网中的服务器的家目录中创建一个配置文件为.pip/pip.conf,内容如下:

[global]

index-url=http://ip地址:8000/pypi/

[install]

trusted-host=ip地址

[download]

trusted-host=ip地址

也可以通过 pip install --no-index --find-links=.\gradio\ -r requirements.txt  本地安装whl

(4)将下载好的离线模块包上传到对应的Linux服务器中,同时启动nginx(nginx中配置Windows浏览器访问Linux服务器文件)

(5)在服务器中通过pip install 模块包 的方式进行相关python模块的安装

6.python中命令行超参数的使用?

argparse 是python自带的命令行参数解析包,可以用来方便地读取命令行参数。它的使用也比较简单。

7.简单快速的遍历函数?

map()函数
map内置函数map,map()函数接收两个参数,一个是函数,一个是Iterable(可多个)

map将传入的函数依次作用到序列的每个元素,并把结果作为新的Iterator返回

案例

# 求取列表中每个元素的平方值
lst = [1, 2, 3, 4, 5]
lst2 = [3, 5, 7]

def func(item):
    return item * item
result = map(func, lst)
print(list(result))
# [1, 4, 9, 16, 25]

8.如何实现Windows浏览器中可视化界面?

数据可视化的模块可以用Streamlit 这个比较全面的可视化模块

9.如何在配置文件configparser中获取列表?

[tableofday]

tablenames1=F_COR_TEST1

 F_COR_TEST2

 F_COR_TEST3

tablenames2=F_COR_TEST4

 F_COR_TEST5

 F_COR_TEST6

注意:如果存在换行,要在第二行开头留一个空格,这样自动就连接识别了,

再通过字符串的处理形成列表的形式就可以了。

10.python中的模糊匹配

FuzzyWuzzy模块包

(1)fuzz该模块下主要介绍四个函数(方法),分别为:简单匹配(Ratio)、非完全匹配(Partial Ratio)、忽略顺序匹配(Token Sort Ratio)和去重子集匹配(Token Set Ratio)

(2)process模块中extract和extractOne这两个方法

11.python中爬取网页数据的模块

beautifulsoup4  这个模块有丰富的方法可以抓取网页上的数据,例子:

from bs4 import BeautifulSoup
import requests

url = "http://news.baidu.com/"
result = requests.get(url).text

bs = BeautifulSoup(result,"html.parser")
links = bs.find_all('a')
for link in links:
    try:
        if str(link['href']).startswith('http'):
            print(link['href'])
    except KeyError:
        pass

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值