【git】大文件git clone不下来问题

【git】大文件git clone不下来问题

xll_bit

已于 2022-04-29 16:41:51 修改

阅读量8.5k
 收藏 30

点赞数22
文章标签: git docker github
版权
使用git clone时,有时候会遇到大文件拉取不下来的情况,这时候就需要用git lfs拉取,对于未装git lfs的用户可以使用现成的docker,附git-lfs的docker使用链接:jgpelaez/git-lfs - Docker Image | Docker Hub

安装完git-lfs之后, 通过以下命令就可以下载大文件了

git lfs fetch
另外,在使用git lfs下载的时候,会遇到一些错误,比如:

trace git-lfs: api error: Post [URL REMOVED]/info/lfs/objects/batch: net/http: TLS handshake timeout

This repository is over its data quota. Account responsible for LFS bandwidth should purchase more data packs to restore access

等。

以下是一种解决方法:

1,fork 当前repo到自己的repo里

2,在自己fork的repo里找到repo settings

 3,在settings 找到 "Include Git LFS objects in archives", 并选中

 4,在 “Danger Zone section" 部分选择 ”Archive this repository",然后确认并验证

 5, 返回到repo主页,点击 Download as .zip,即可进行下载
————————————————
版权声明:本文为CSDN博主「xll_bit」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/xll_bit/article/details/124498421

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Git clone操作时如果遇到文件太大拉取不下来问题,通常是因为仓库中的文件大小超过了单次下载的限制,或者网络连接不稳定导致传输过程缓慢。有几种方法可以解决这个问题: 1. **断点续传**(部分平台支持):一些版本的Git客户端或命令行工具提供了断点续传功能,比如Git LFS(Large File Storage)。如果你使用的是这类工具,可以尝试设置并启用断点续传来分段下载。 2. **限制网络流量**:你可以限制下载速度,例如在命令行中添加`-o`参数(对Git CLI)或在工具的设置里调整下载速率。 ``` git clone --speed-limit=10000000 <repository-url> ``` 其中10000000是一个示例值,可以根据实际情况调整。 3. **使用SSH连接**:如果你有SSH密钥配置,可以使用SSH连接代替HTTP/HTTPS,通常会更快。因为SSH是加密的,所以可能会稍微慢一些,但传输效率更高。 ``` git clone git@github.com:username/repository.git ``` 4. **分批下载**:将大文件拆分成小块,然后逐个下载。这需要手动操作或者写脚本自动化处理。 5. **提高网络环境**:确保网络连接稳定且带宽充足,如果可能,连接到有更快下载速度的网络。 6. **使用镜像**:如果你在中国,可以使用国内的Git镜像源,如GitHub中国、码云等,它们通常会有更短的延迟和更快的下载速度。 记得在执行这些操作前备份本地已有的工作,避免数据丢失。 **相关问题:** 1. 如何在Windows上启用Git LFS? 2. 如何检查Git是否支持断点续传? 3. 如何配置Git使用SSH连接?
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值