公共资源速递
This Weekly Snapshots !
5 个模型:
* Mistral-Large-2
* Llama-3.1 系列
* Llama-3.1-8B-Instruct
* Llama-3.1-70B-Instruct
* Llama-3.1-70B-Instruct-AWQ-INT4
* Llama-3.1-405B-Instruct-AWQ-lNT4
2 个教程:
* 使用 Open WebUI 一键部署 Mistral Large 2 / Llama 3.1 405B
* 一键部署 Mistral Large 2 / Llama 3.1 405B 模型 OpenAI 兼容 API 服务
5 个数据集:
* Taptap reviews 游戏评论数据集
* TinyStories 短篇故事合成数据集
* CCPD Dataset 中国车牌检测数据集
* LAB Bench 生物学基准数据集
* NuminaMath-CoT 数学竞赛问题数据集
访问官网立即使用:openbayes.com
公共模型
该模型是 Mistral AI 发布的新一代旗舰 AI 模型 Mistral-Large-Instruct-2407-AWQ,拥有 123B 个参数,具备 128k 的上下文窗口,支持包括中文在内的数十种语言以及 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。在多语言能力、数学、推理、代码编写等方面都有显著提升,并在 MMLU 上的准确度达到了 84.0% 。
* 直接使用:
https://go.openbayes.com/quG7Y
该模型是 Meta 开源的 Llama-3.1 系列的 8B 参数大小指令调优版,适合在消费者级 GPU 上进行高效部署和开发。Llama 3.1 的新特点是指令模型在工具调用方面进行了微调,适用于 Agent 用例。
* 直接使用:
https://go.openbayes.com/ZwpAF
该模型是 Llama-3.1 系列的 70B 参数大小指令调优版模型,适合大规模 AI 原生应用。
* 直接使用:
https://go.openbayes.com/RV6AR
4. Llama-3.1-70B-Instruct-AWQ-INT4
该模型是 Llama-3.1 系列的 70B 参数大小指令调优版,并采用了 AWQ 量化技术,将模型的权重量化到 INT4 精度,在保持性能的同时减小模型大小,提高了推理速度。
* 直接使用:
https://go.openbayes.com/VY962
5. Llama-3.1-405B-Instruct-AWQ-lNT4
该模型是 Llama 3.1 系列大型语言模型中的 405B 参数大小指令调优版,并采用了 AWQ 量化技术,将模型的权重量化到 INT4 精度。它是当前最大的开源模型之一,支持多语言输入和输出,增强了模型的通用性和适用范围,同时引入了更长的上下文窗口,能够处理更复杂的任务和对话。
* 直接使用:
https://go.openbayes.com/lWtUz
📌 Tips:以上模型都可以在算力容器中一键 input,既不占用个人存储空间,又省去了上传下载的复杂流程。
公共教程
1. 使用 Open WebUI 一键部署 Mistral Large 2 / Llama 3.1 405B
该教程是使用 OpenWebUI 一键部署 Mistral Large 2 / Llama 3.1 405B,相关环境和配置已经搭建完成,只需克隆启动容器即可进行推理体验。
https://go.openbayes.com/jJIDR
https://go.openbayes.com/Qjurp
2. 一键部署 Mistral Large 2 / Llama 3.1 405B 模型 OpenAI 兼容 API 服务
该教程为使用 OpenAI 兼容 API 部署 Mistral Large 2 / Llama 3.1 405B。「OpenAI 兼容 API」意味着第三方开发者可以使用与 OpenAI 相同的请求和响应格式,将类似的功能集成到自己的应用程序中。启动该教程后可以在任何 OpenAI 兼容的 SDK 对该模型进行连接。
https://go.openbayes.com/on5iz
https://go.openbayes.com/pVjcV
为了方便大家的理解,我们录制了详细的操作视频,小白也可以快速上手!
【OpenBayes 官方教程】快速部署 Mistral-Large & Llama-3.1-405B 超大模型_哔哩哔哩_bilibili
公共数据集
该数据集包含手游 App TapTap 上约 300 款游戏的标签评论,共 4,888 个数据示例。其中用户评论低于 3 星(最多 5 星)被视为 0(不满意),其他为 1(满意)。这两个类别的比例大约是 1:1,可用于情感分析的应用 。
* 直接使用:
https://go.openbayes.com/1jyEm
该数据集是一个由 GPT-3.5 和 GPT-4 生成的短篇故事合成数据集,包含的词汇量限定在 3 至 4 岁儿童理解的范围内。它专为训练和评估小型语言模型而设计,旨在训练模型生成流畅、一致、多样化且语法近乎完美的短故事。
* 直接使用:
https://go.openbayes.com/4rMUc
该数据集主要在中国合肥市的停车场采集得到,包含了多种复杂环境下的车牌照片,例如模糊、倾斜、阴雨天和雪天等,使得数据集在车牌识别任务中更具挑战性。数据集分为两个部分,CCPD 2019 和 CCPD 2020,其中 CCPD 2019 包含普通车牌(蓝色车牌),而 CCPD 2020 则包含新能源车牌(绿色车牌)。
* 直接使用:
https://go.openbayes.com/vGRJD
该数据集包含 2,400 多道选择题,用于评估人工智能系统在一系列实用生物学研究能力方面的表现,包括文献检索和推理能力、数据解读能力、接入和导航数据库的能力、理解控制 DNA 以及蛋白质序列的能力等等。
* 直接使用:
https://go.openbayes.com/CaErP
该数据集是 AI-MO 于 2024 年提出,包含 860k+ 数学竞赛问题-解答对,每个解答都使用了思维链 (Chain of Thought, CoT) 推理模板。数据集的来源包括中国高中数学练习题、美国和国际数学奥林匹克竞赛题。数据主要收集自在线试卷 PDF 和数学讨论论坛。
* 直接使用:
https://go.openbayes.com/rzGow
以上就是小贝上周在 OpenBayes 的全部更新内容啦~
小贝还建立了「Stable Diffusion 教程交流群」,欢迎小伙伴们入群探讨各类技术问题、分享应用效果~扫描下方二维码添加小贝总微信(微信号:OpenBayes001),备注「SD 教程交流」,即可加入群聊。
此外,OpenBayes 平台还提供超过 500 个精选公共数据集、模型、教程等优质资源,并已经整合到「公共资源」模块中。OpenBayes 平台支持一键 Input,开箱即用!