Python如何pip批量安装指定包 - 最简单方法


背景

有很多台服务器需要配置, 简单说也就是公司给我配备了3台Windows, 我需要配置Python环境并安装7个包, 如果按照常规的pip install我至少得安装3x7=21次, 并且得一个个等安装完毕才能安装下一个
查了很多资料, 结果都是让我写pip freeze > requirements.txt导出, 然后重新pip install -r requirements导入, 我其实也不用电脑上这么多安装包的, 我需求简单一些

  1. pip install安装7个指定的包
  2. 不需要指定版本, 最新版本就行
  3. 最好快速安装, 所以最好使用国内镜像

解决办法

1. 制作requirements.txt文件

这一步其实很简单

  • 创建1个txt文件, 取名requrements.txt
    这个文件名是可以随意取的, 并不是强制要求的
  • 在其中输入安装包列表,以换行符分隔
    • 按照我的需求, 我输入的内容如下
    ddddocr
    opencv-python
    selenium
    pillow
    pymysql
    requests
    requests_toolbelt
    
  • 保存退出

2. 将requirements.txt传到需要部署的电脑上

方法很多, 例如用向日葵, 例如ftp, 聊天软件, 邮件等等
其实完全可以在部署电脑自己做一个一样的, 这样就省略了上传这一步, 多打几串字符罢了


3. 批量安装包

文件上传的路径不一样, 最后文件的地址就会不一样, 我上传到了下载文件夹,那么我的代码应如下

pip install -i https://pypi.tuna.tsinghua.edu.cn/simpe -r C:\Users\danlaoshi\downloads\requirements.txt

接下来, 喝杯茶, 等他安装完毕就好了

在这里插入图片描述


- End -

  • 8
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,下面是一个简单Python 爬虫教程,可以批量爬取指定网站的图片: 首先,我们需要安装 requests 和 BeautifulSoup 这两个库。可以通过以下命令进行安装: ``` pip install requests pip install beautifulsoup4 ``` 接下来,我们需要编写代码。以下是一个示例代码,可以爬取指定网站的图片并保存到本地: ```python import requests from bs4 import BeautifulSoup import os # 爬取图片的网站 url = "https://www.example.com/" # 请求头,模拟浏览器访问 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} # 发送请求,获取网页内容 response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, "html.parser") # 创建保存图片的文件夹 if not os.path.exists("images"): os.makedirs("images") # 遍历所有的图片标签,获取图片链接并保存到本地 for img in soup.find_all("img"): img_url = img.get("src") if img_url.startswith("http"): response = requests.get(img_url) with open("images/" + os.path.basename(img_url), "wb") as file: file.write(response.content) print("已保存图片:", img_url) ``` 在上述代码中,我们首先定义了要爬取的网站的 URL。然后,我们使用 requests 库发送一个 GET 请求,获取网页的 HTML 内容。接着,我们使用 BeautifulSoup 库对 HTML 进行解析,获取所有的图片标签。最后,我们使用 requests 库再次发送 GET 请求,获取图片的二进制数据,并保存到本地的 images 文件夹中。 注意,这里我们使用了一个 if 判断来过滤掉非 HTTP 开头的图片链接,以避免出现下载错误的情况。 为了更好的用户体验,代码中还加入了一些注释,方便大家理解。 希望这个简单Python 爬虫教程能对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

但老师

要是看起来爽 求打赏一耳光

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值