LLaMa2开源基模型申请、下载
1 申请模型
访问[meta 申请模型]
注意地区限制,选择HK或其他国家;组织可以填no organization。
2 下载模型
提交申请后一般几分钟就会通过,邮件或者meta官网会显示下载指导。
访问llama github项目
git clone [github.com/facebookres…]
设置+x权限
chmod +x download.sh
执行download.sh,按照提示操作,填入下载指导中的URL
(liyan_gptq_p38) root@ubuntu:/home/liyan/llm_datas/models/llama2-7b/llama# ls
CODE_OF_CONDUCT.md download.sh example_text_completion.py llama README.md Responsible-Use-Guide.pdf UPDATES.md
CONTRIBUTING.md example_chat_completion.py LICENSE MODEL_CARD.md requirements.txt setup.py USE_POLICY.md
(liyan_gptq_p38) root@ubuntu:/home/liyan/llm_datas/models/llama2-7b/llama# ./download.sh
Enter the URL from email: https://download.llamameta.net/*?XXXXXX
Enter the list of models to download without spaces (7B,13B,70B,7B-chat,13B-chat,70B-chat), or press Enter for all: 7B
Downloading LICENSE and Acceptable Usage Policy
--2024-05-30 21:39:58-- https://download.llamameta.net/LICENSE?Policy=XXXXXX
Resolving proxy.huawei.com (proxy.huawei.com)... 172.19.90.131
Connecting to proxy.huawei.com (proxy.huawei.com)|172.19.90.131|:8080... connected.
ERROR: cannot verify download.llamameta.net's certificate, issued by ‘CN=Huawei Web Secure Internet Gateway CA,OU=IT,O=Huawei,L=Shenzhen,ST=GuangDong,C=cn’:
Self-signed certificate encountered.
To connect to download.llamameta.net insecurely, use `--no-check-certificate'.
根据报错提示,修改download.sh脚本,添加--no-check-certificate
参数,重新执行。
快速下载huggingface模型
step1: 安装依赖
pip install -U huggingface_hub
pip install -U hf-transfer
注意:huggingface_hub依赖于 Python>=3.8,hf_transfer 依附并兼容 huggingface-cli。
step2:设置ENV
export HF_ENDPOINT=https://hf-mirror.com
# 开启
export HF_HUB_ENABLE_HF_TRANSFER=1
# 关闭
export HF_HUB_ENABLE_HF_TRANSFER=0
step3: 基本用法
huggingface-cli命令行方式
# 获取相关信息
huggingface-cli download --help
# 下载单个文件(repo_id + 文件名)
huggingface-cli download gpt2 config.json
# 下载整个存储库(repo_id)
huggingface-cli download HuggingFaceH4/zephyr-7b-beta
# 下载多个文件
huggingface-cli download gpt2 config.json model.safetensors
# 下载dataset/space
huggingface-cli download HuggingFaceH4/ultrachat_200k --repo-type dataset
huggingface-cli download HuggingFaceH4/zephyr-chat --repo-type space
# 下载存储库里单个文件夹下的单个文件
huggingface-cli download stabilityai/stable-diffusion-xl-base-1.0 tokenizer/vocab.json
# 常用命令,保存到本地,--local-dir-use-symlinks 可以设置为True
huggingface-cli download --resume-download --local-dir-use-symlinks False stabilityai/stable-diffusion-xl-base-1.0 tokenizer/vocab.json --local-dir models
下载脚本方式
可以配置内网代理,关闭SSL校验
# coding: utf-8
import os
import urllib3
urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)
import requests
from huggingface_hub import configure_http_backend, snapshot_download
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com" # 镜像站加速
os.environ["HF_HUB_ENABLE_HF_TRANSFER"] = "1"
def backend_factory() -> requests.Session:
session = requests.Session()
proxies = {"http": "https://工号:密码@proxyhk.xxx.com:8080",
"https": "http://工号:密码@proxyhk.xxxx.com:8080"}
session.verify = False
session.trust_env = False
session.proxies.update(proxies)
return session
# Set it as the default session factory
configure_http_backend(backend_factory=backend_factory)
snapshot_download(
repo_type=None, # 要下载的类型是模型还是数据集,可选[None, 'model', 'dataset', 'space']
repo_id="openbmb/MiniCPM-2B-sft-bf16", # 仓库名
revision="main", # 分支名
local_dir="./model/MiniCPM-2B-sft-bf16", # 本地存储地址
token="xxx" # huggingface登录获取
)
实际使用时,发现还会报错[SSL: CERTIFICATE_VERIFY_FAILED]
下载huggingface报错[SSL: CERTIFICATE_VERIFY_FAILED]
执行下载时报错:ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:1131) 解决措施:关掉证书校验
/lib/python3.11/site-packages/requests/adapters.py, 在adapters.py中找到 send方法,修改默认verify=False。
< def send(self, request, stream=False, timeout=None, verify=True,
---
> def send(self, request, stream=False, timeout=None, verify=False,
同理对sessions.py request()方法,修改默认verify=False。
< hooks=None, stream=None, verify=None, cert=None, json=None):
---
> hooks=None, stream=None, verify=False, cert=None, json=None):
那么,我们该如何学习大模型?
作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一、大模型全套的学习路线
学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。
L1级别:AI大模型时代的华丽登场
L2级别:AI大模型API应用开发工程
L3级别:大模型应用架构进阶实践
L4级别:大模型微调与私有化部署
一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。
以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。