无需编写代码,本文将教你如何在算力魔方®上使用Gemma 2 + Ollama在LeetCode上获得前30%的好成绩。
一,算力魔方®简介
算力魔方®是一款模块化的迷你主机,采用了抽屉式设计,后续组装、升级、维护只需要拔插算力和IO模块即可组成丰富的配置,适应不同场景。
算力魔方®4060版,非常适合本地部署AI大模型。
型号:PX22-GPU
算力魔方®4060版,双风扇设计,能够在高效地处理复杂的3D模型和场景时,保证运行的速度和稳定性。
算力魔方®此前经过了多种测试验证,当前主流的一些大模型的部署运行,都取得了较好的体验。
1,
AIPC的先驱算力魔方——三步完成智谱AI大语言模型在终端的部署
2,
使用OpenVINO™在算力魔方上加速Latent Consistency Models!
3,
英特尔集成显卡+ChatGLM3大语言模型的企业本地AI知识库部署丨开发者实战
4,
5,
基于OpenVINO™与Qwen2在算力魔方上写2024高考作文!
二,Gemma 2简介
2024年6月28日,谷歌在官网宣布开源最新大模型Gemma 2,包括9B和27B两种参数权重,支持微调,参见:
https://developers.googleblog.com/en/fine-tuning-gemma-2-with-keras-hugging-face-update/
训练数据方面,Gemma 2的27B模型使用了13万亿tokens的英文数据进行训练,9B模型使用了8万亿tokens数据。这些数据包括网页文档、代码、论文和科学文章等。
测试结果显示,Gemma 2在多项基准测试中都表现非常出色,例如在MMLU 5-shot、ARC-C 25-shot、GSM8K 5-shot等测试中,27B模型相比之前版本和其他标准模型,如Mistral和LLaMA-3,均有明显提高。
三,安装Ollama+Gemma 2
Ollama是本地运行大语言模型的工作,请从https://ollama.com/下载安装Ollama。
然后在Windows命令界面中运行命令:ollama run gemma2,完成Gemma2的本地化部署和运行。
四,安装图形化界面
请到:https://nodejs.org/zh-cn,下载并安装node.js:
然后执行四条命令,完成图形界面安装:
git clone https://github.com/ollama-webui/ollama-webui-lite
cd ollama-webui-lite
npm ci
npm run dev
打开浏览器,输入localhost:3000,即可进入Gemma2的图形界面。
五,Gemma2解leetcode编程题
进入leetcode.cn的题库,打开“两数相加”的题目,然后把题目输给Gemma2,并把Gemma2编写的程序拷贝到leetcode的代码区,最后依次点击运行和提交。恭喜您,您的名次非常靠前!
leetcode.mp4
六,总结
无需编写程序,即可在算力魔方®上使用Gemma 2 + Ollama方便快捷的部署AI大模型,并让它协助编写程序,还能在leetcode上获得很高的名次。当AI大模型可以协助我们编写高品质的代码片段后,端到端的工作流就变成非常重要了。正如Linus Torvalds所说:
“Talk is cheap,show me the code;Workflow over code!”
更多精彩内容,敬请期待!