【python】上传 Python 包到 pypi 官网

 

一. 概述

在上一篇【爬虫】将 Scrapy 部署到 k8s文章中提到在自定义 spiderkeeper 镜像时报错,所以自己基于它的源码提交了一个叫做 spiderkeeper-new 的 python 包到 pypi 官网,本文将记录一下整个构建过程,希望对有同样需求的小伙伴提供一些帮助。编程资料点击免费领取

二. 上传 Python 包到 pypi 官网

首先还是查看官方文档,官方文档写的很详细,阅读完官方文档之后,就知道了整个构建流程,这里主要是对阅读的文档做一个总结,省去了很多细节的介绍,便于快速上手体验。

1. 配置项目

在项目的根目录下面创建一个 setup.py 文件,这里以 spiderkeeper 的内容为例,setup.py 文件的内容如下:

#!/usr/bin/env python
from os import path
from setuptools import setup, find_packages

here = path.abspath(path.dirname(__file__))
with open(path.join(here, 'requirements.txt'), 'r', encoding='utf-8') as f:
    all_reqs = f.read().split('\n')

with open(path.join(here, 'README.md'), 'r', encoding='utf-8') as f:
    long_description = f.read()

install_requires = [x.strip() for x in all_reqs if 'git+' not in x]

setup(
    name='SpiderKeeper-new',  # 必填,项目的名字,用户根据这个名字安装,pip install SpiderKeeper-new
    version='1.0.0',  # 必填,项目的版本,建议遵循语义化版本规范
    author='edisonwd',  # 项目的作者
    description='Admin ui for spider service, update info: upgrade dependent package',  # 项目的一个简短描述
    long_description=long_description,  # 项目的详细说明,通常读取 README.md 文件的内容
    long_description_content_type='text/mar
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值