2024年8月更新:
先说结论: gemma2 27B 8位量化版
gemma2用最小参数量实现了超过三倍参数的模型能力,超过llama3 70B,特别中文翻译能力,比qwen2 70B还要强。9B也非常出色,可以在6G显卡运行
不要迷信f16, 参数大才是王道,越大参数模型量化损失越小,宁可要32B的量化也不要14B的f16精度。
下面介绍一个本地部署gemma2 27B/9B极简方案,不需要有任何技术知识储备,电脑没有GPU也可以,内存足够就行。16G内存可以跑7B模型,24G可以跑14B模型,32G可以跑32B模型
1.打开电脑浏览器访问:
FlashAI|闪电AI 一个开箱即用的搭载本地知识库的私有化大模型工具集
下载qwen,yi,或者llama3的大模型整合包,zip格式,没有密码
\2. 解压zip跑,windows运行里面的flashai.exe即可,mac运行压缩包里面的.dmg,稍等片刻即可启动大模型
\3. 如果需要用自己的数据微调大模型,可以用左边的知识库,上传文档(其实都在本地)即可让大模型学习你喂给它的知识,回答垂直领域的问题。本地知识库和大模型都全程离线,不用担心泄露数据
最后,简单说一下GPU和CPU运行大模型的区别,其实他们的推理速度是差不多的,比如12代i7 CPU跑7b模型,大概10token/s,用2060 gpu大概30token/s,差距不大。
GPU真正厉害的是prompt评估速度,简单说就是阅读速度,这个与芯片核心数量有关,cpu一般4核,8核,而gpu有几千个核心,4090甚至高达1.6w。所以,在长文本分析任务,知识库问答任务,gpu几乎秒答,cpu需要几十秒到几分钟的阅读资料的时间。
最新推出的AI PC也会对本地运行大模型进行专门优化,2025年大概率核显就能达到3090运行大模型的水平,端侧大模型的时代即将到来。
那么,如何系统的去学习大模型LLM?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
篇幅有限,部分资料如下:
👉LLM大模型学习指南+路线汇总👈
💥大模型入门要点,扫盲必看!
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。
路线图很大就不一一展示了 (文末领取)
👉大模型入门实战训练👈
💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
👉国内企业大模型落地应用案例👈
💥两本《中国大模型落地应用案例集》 收录了近两年151个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
👉GitHub海量高星开源项目👈
💥收集整理了海量的开源项目,地址、代码、文档等等全都下载共享给大家一起学习!
👉LLM大模型学习视频👈
💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
👉640份大模型行业报告(持续更新)👈
💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
👉获取方式:
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓