LLM模型下载

LLaMa2开源基模型申请、下载

1 申请模型

访问[meta 申请模型]

注意地区限制,选择HK或其他国家;组织可以填no organization。

2 下载模型

提交申请后一般几分钟就会通过,邮件或者meta官网会显示下载指导。

image.png

访问llama github项目
git clone [github.com/facebookres…]

设置+x权限
chmod +x download.sh

执行download.sh,按照提示操作,填入下载指导中的URL

(liyan_gptq_p38) root@ubuntu:/home/liyan/llm_datas/models/llama2-7b/llama# ls
CODE_OF_CONDUCT.md  download.sh                 example_text_completion.py  llama          README.md         Responsible-Use-Guide.pdf  UPDATES.md
CONTRIBUTING.md     example_chat_completion.py  LICENSE                     MODEL_CARD.md  requirements.txt  setup.py                   USE_POLICY.md
(liyan_gptq_p38) root@ubuntu:/home/liyan/llm_datas/models/llama2-7b/llama# ./download.sh
Enter the URL from email: https://download.llamameta.net/*?XXXXXX

Enter the list of models to download without spaces (7B,13B,70B,7B-chat,13B-chat,70B-chat), or press Enter for all: 7B
Downloading LICENSE and Acceptable Usage Policy
--2024-05-30 21:39:58--  https://download.llamameta.net/LICENSE?Policy=XXXXXX
Resolving proxy.huawei.com (proxy.huawei.com)... 172.19.90.131
Connecting to proxy.huawei.com (proxy.huawei.com)|172.19.90.131|:8080... connected.
ERROR: cannot verify download.llamameta.net's certificate, issued by ‘CN=Huawei Web Secure Internet Gateway CA,OU=IT,O=Huawei,L=Shenzhen,ST=GuangDong,C=cn’:
  Self-signed certificate encountered.
To connect to download.llamameta.net insecurely, use `--no-check-certificate'.

根据报错提示,修改download.sh脚本,添加--no-check-certificate参数,重新执行。

快速下载huggingface模型

step1: 安装依赖

pip install -U huggingface_hub

pip install -U hf-transfer

注意:huggingface_hub依赖于 Python>=3.8,hf_transfer 依附并兼容 huggingface-cli。

step2:设置ENV

export HF_ENDPOINT=https://hf-mirror.com

# 开启
export HF_HUB_ENABLE_HF_TRANSFER=1
# 关闭
export HF_HUB_ENABLE_HF_TRANSFER=0

step3: 基本用法

huggingface-cli命令行方式
# 获取相关信息
huggingface-cli download --help
# 下载单个文件(repo_id + 文件名)
huggingface-cli download gpt2 config.json
# 下载整个存储库(repo_id)
huggingface-cli download HuggingFaceH4/zephyr-7b-beta
# 下载多个文件 
huggingface-cli download gpt2 config.json model.safetensors
# 下载dataset/space
huggingface-cli download HuggingFaceH4/ultrachat_200k --repo-type dataset
huggingface-cli download HuggingFaceH4/zephyr-chat --repo-type space
# 下载存储库里单个文件夹下的单个文件
huggingface-cli download stabilityai/stable-diffusion-xl-base-1.0 tokenizer/vocab.json
# 常用命令,保存到本地,--local-dir-use-symlinks 可以设置为True
huggingface-cli download --resume-download --local-dir-use-symlinks False stabilityai/stable-diffusion-xl-base-1.0 tokenizer/vocab.json --local-dir models

下载脚本方式

可以配置内网代理,关闭SSL校验

# coding: utf-8
import os
 
import urllib3
 
urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)
import requests
from huggingface_hub import configure_http_backend, snapshot_download
 
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com" # 镜像站加速
os.environ["HF_HUB_ENABLE_HF_TRANSFER"] = "1"
 
 
def backend_factory() -> requests.Session:
    session = requests.Session()
    proxies = {"http": "https://工号:密码@proxyhk.xxx.com:8080",
               "https": "http://工号:密码@proxyhk.xxxx.com:8080"}
    session.verify = False
    session.trust_env = False
    session.proxies.update(proxies)
    return session
 
 
# Set it as the default session factory
configure_http_backend(backend_factory=backend_factory)
snapshot_download(
    repo_type=None,  # 要下载的类型是模型还是数据集,可选[None, 'model', 'dataset', 'space']
    repo_id="openbmb/MiniCPM-2B-sft-bf16",  # 仓库名
    revision="main",  # 分支名
    local_dir="./model/MiniCPM-2B-sft-bf16",  # 本地存储地址
    token="xxx"  # huggingface登录获取
)
 

实际使用时,发现还会报错[SSL: CERTIFICATE_VERIFY_FAILED]

下载huggingface报错[SSL: CERTIFICATE_VERIFY_FAILED]

执行下载时报错:ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:1131) 解决措施:关掉证书校验

/lib/python3.11/site-packages/requests/adapters.py, 在adapters.py中找到 send方法,修改默认verify=False。

<     def send(self, request, stream=False, timeout=None, verify=True,
---
>     def send(self, request, stream=False, timeout=None, verify=False,

同理对sessions.py request()方法,修改默认verify=False。

<             hooks=None, stream=None, verify=None, cert=None, json=None):
---
>             hooks=None, stream=None, verify=False, cert=None, json=None):

那么,我们该如何学习大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、大模型全套的学习路线

学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。

L1级别:AI大模型时代的华丽登场

L2级别:AI大模型API应用开发工程

L3级别:大模型应用架构进阶实践

L4级别:大模型微调与私有化部署

一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。

以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

  • 7
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值