百度对话大模型API列表整理

百度对话大模型API列表整理

百度智能云千帆平台提供了丰富的API,包括对话Chat、续写Completions、向量Embeddings、插件应用、Prompt工程、模型服务、管理、调优及数据管理等API能力。
这里对千帆大模型平台提供的对话Chat API列表进行了一个简单的整理,方便后续封装时进行对照。

本文信息基于千帆大模型API列表进行整理。

ERNIE-4.0-8K

ERNIE 4.0是百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。ERNIE-4.0-8K是模型的一个版本
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro

ERNIE-4.0-8K(抢占式)

ERNIE 4.0是百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。ERNIE-4.0-8K(抢占式)使用QPS限流策略,接口可用配额动态变化,流量高峰期会出现请求失败,可用于实验/服务降级场景。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro_preemptible

ERNIE-4.0-8K-Preview

ERNIE 4.0是百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-4.0-8k-preview

ERNIE-3.5-8K

ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-8K(原ERNIE-Bot)是模型的一个版本
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions

ERNIE-3.5-8K-0205

ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-8K-0205是模型的一个版本,支持5K tokens输入+2K tokens输出。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-3.5-8k-0205

ERNIE-3.5-8K-1222

ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-8K-1222是其中一个模型版本,支持5K tokens输入+2K tokens输出。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-3.5-8k-1222

ERNIE-3.5-4K-0205

ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-4K-0205是模型的一个版本,可更好处理复杂指令,支持4K上下文长度。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-3.5-4k-0205

ERNIE-3.5-8K(抢占式)

ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-8K(抢占式)使用QPS限流策略,接口可用配额动态变化,流量高峰期会出现请求失败,可用于实验/服务降级场景。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_preemptible

ERNIE-3.5-8K-Preview

ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-3.5-8k-preview

ERNIE-Speed-8K

ERNIE Speed是百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。ERNIE-Speed-8K是模型的一个版本
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie_speed

ERNIE-Speed-128K(预览版)

ERNIE Speed是百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。ERNIE-Speed-128K是模型的一个版本,该服务为预览版,不保障SLA。
请求地址:https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-speed-128k

ERNIE-Lite-8K-0922

ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。ERNIE-Lite-8K-0922(原ERNIE-Bot-turbo-0922)是模型的一个模版
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/eb-instant

ERNIE-Lite-8K-0308

ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。ERNIE-Lite-8K-0308是模型的一个模版,优化了模型效果
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-lite-8k

ERNIE-Tiny-8K

ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。ERNIE-Tiny-8K是模型的一个版本
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-tiny-8k

ERNIE-Character-8K-0321

百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。本文介绍了相关API。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie-char-8k

ERNIE-Functions-8K-0321

注意:该模型目前面向测试企业用户开放,如需使用请填写申请表单,我们将尽快评估您的需求。
百度自研的垂直场景大语言模型,适合对话问答中的外部工具使用和业务函数调用场景,结构化回答合成能力更强、输出格式更稳定,推理性能更优。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

ERNIE Speed-AppBuilder

ERNIE Speed-AppBuilder是千帆AppBuilder专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果,需配合“百度智能云千帆AppBuilder”产品使用或结合“AppBuilder-SDK”单独使用。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ai_apaas

Gemma-2B-it

Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Gemma-7B-it

Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/gemma_7b_it

Yi-34B-Chat

Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现,该版本为支持对话的chat版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/yi_34b_chat

Mixtral-8x7B-Instruct

由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/mixtral_8x7b_instruct

Mistral-7B-Instruct

Mistral-7B-Instruct由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。该版本为Mistral-7B-v0.1基础上的微调版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Llama-2-7b-chat

Llama-2-7b-chat由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/llama_2_7b

Linly-Chinese-LLaMA-2-7B

Linly-Chinese-LLaMA-2-7B是由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 7b参数版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Qianfan-Chinese-Llama-2-7B

Qianfan-Chinese-Llama-2-7B是千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/qianfan_chinese_llama_2_7b

Qianfan-Chinese-Llama-2-7B-32K

Qianfan-Chinese-Llama-2-7B-32K是千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Llama-2-13b-chat

Llama-2-13b-chat由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/llama_2_13b

Qianfan-Chinese-Llama-2-13B-v2

千帆团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Linly-Chinese-LLaMA-2-13B

Linly-Chinese-LLaMA-2-13B是由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 13b参数版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Qianfan-Chinese-Llama-2-13B-v1

Qianfan-Chinese-Llama-2-13B-v1 是千帆团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/qianfan_chinese_llama_2_13b

Llama-2-70b-chat

Llama-2-70b-chat由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-70b-chat是高精度效果的原生开源版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/llama_2_70b

Qianfan-Chinese-Llama-2-70B

千帆团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Qianfan-Llama-2-70B-compressed

Qianfan-Llama-2-70B-compressed是千帆团队在Llama-2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Meta-Llama-3-8B-Instruct

Meta-Llama-3-8B是Meta AI于2024年4月18日发布的Meta Llama 3系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。Meta-Llama-3-8B-Instruct是8B参数的指令微调版本,适用于对话场景,在常见行业基准上优于许多可用的开源聊天模型,
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/llama_3_8b

Meta-Llama-3-70B-Instruct

Meta-Llama-3-70B是Meta AI于2024年4月18日发布的Meta Llama 3系列70B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。Meta-Llama-3-70B-Instruct是70B参数的指令微调版本,适用于对话场景,在理解语言细节、上下文和执行复杂任务上表现更佳。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/llama_3_70b

ChatGLM3-6B

ChatGLM3-6B是智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

chatglm3-6b-32k

chatglm3-6b-32k智谱AI与清华KEG实验室发布的中英双语对话模型,在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

ChatGLM2-6B-32K

ChatGLM2-6B-32K是在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/chatglm2_6b_32k

ChatGLM2-6B-INT4

ChatGLM2-6B-INT4是在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

ChatGLM2-6B

ChatGLM2-6B是由智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Baichuan2-7B-Chat

Baichuan2-7B-Chat是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为70亿参数规模的Chat版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Baichuan2-13B-Chat

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为130亿参数规模的Chat版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

XVERSE-13B-Chat

XVERSE-13B-Chat是由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。该版本为130亿参数规模的Chat版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

XuanYuan-70B-Chat-4bit

XuanYuan-70B-Chat-4bit由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/xuanyuan_70b_chat

DISC-MedLLM

DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

ChatLaw

ChatLaw由壹万卷公司与北大深研院研发的法律行业大模型,在开源版本基础上进行了进一步架构升级,融入了法律意图识别、法律关键词提取、CoT推理增强等模块,实现了效果提升,以满足法律问答、法条检索等应用需求。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/chatlaw

Falcon-7B

Falcon-7B由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Falcon-40B-Instruct

Falcon-40B-Instruct由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

AquilaChat-7B

AquilaChat-7B是由智源研究院研发,基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/aquilachat_7b

RWKV-4-World

RWKV-4-World由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-World在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

BLOOMZ-7B

BLOOMZ-7B是业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/bloomz_7b1

Qianfan-BLOOMZ-7B-compressed

Qianfan-BLOOMZ-7B-compressed是千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/qianfan_bloomz_7b_compressed

RWKV-4-pile-14B

RWKV-4-pile-14B是由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-pile-14B为在 Pile 数据集上训练的 L40-D5120 因果语言模型。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

RWKV-Raven-14B

RWKV-Raven-14B由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-Raven-14B为在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调的Chat版本。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

OpenLLaMA-7B

OpenLLaMA-7B是在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

Dolly-12B

Dolly-12B由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

MPT-7B-Instruct

MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

MPT-30B-instruct

MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

OA-Pythia-12B-SFT-4

OA-Pythia-12B-SFT-4是基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在https://open-assistant.io/收集的人类反馈的对话数据上进行微调。
请求地址: https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/{创建服务时填写的API地址}

加入新媒体交互微信群,分享更多Unity开发技能

在这里插入图片描述

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值