M2 Mac mini跑Llama3

前言

在4-19左右,Meta 宣布正式推出下一代开源大语言模型 Llama 3;共包括 80 亿和 700 亿参数两种版本,号称 “是 Llama 2 的重大飞跃”,并为这些规模的 LLM 确立了新的标准。实际上笔者早就体验过,只不过自己电脑没什么显卡(核显),所以一直没跑llama,但是最近听说m2芯片可以运行,就体验了一下。

看图表8B的数据可以在本地运行,70B就不用想了。试了一下真的可行。

使用Ollama

ollama:Get up and running with large language models.实际上就是封装已经训练的模型数据,提供运行程序

分为ollama的安装,拉取模型数据,运行模型

安装很简单:Download Ollama on macOS

mac直接解压app,放在applications下,运行后点击install,输入密码即可,实际上是安装ollama指令。

模型文件:https://ollama.com/library

ollama pull llama3 

根据电脑的配置情况,默认llama即8B模型,如果要运行70B:ollama run llama3:70b,估计需要64G内存,没这么大的,所以只跑了8B

然后执行run,有点docker的设计思想

ollama run llama3

基本上问答是英文,训练的语料估计主要是国外的,毕竟meta开源 

 

总结

实际上就是本地体验一下,如果要调模型还是相对难一些,体验发现llama3主要是英文答复,不过8B模型在mac mini运行还是很快的,另外可以根据提示做一些Ollama的指令,关键的是load model和save model,可以载入和存储模型。

  • 6
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
VLLM是指通过使用自然语言理解和生成技术,为llama2(即少儿启蒙推理游戏)构建一个强大的智能推理引擎。llama2是一个有趣的谜题游戏,旨在帮助儿童培养逻辑思维和推理能力。VLLM的目标是通过语义理解和生成技术,使llama2能够理解和响应玩家的问题和指令。 VLLM使用的技术包括自然语言处理、机器学习和推理算法。它能够理解不同玩家的提问,并根据题目提供合适的答案和指导。VLLM还能够根据玩家的反馈和行为进行学习,提供更准确的推理和解答。 通过使用VLLM,llama2游戏变得更加有趣和教育性。孩子们可以与电脑程序进行对话,提出问题,解决谜题,培养他们的思维能力和推理能力。VLLM能够提供有趣且适应儿童认知水平的谜题,并通过给予提示和解释,帮助他们学习解决问题的方法和策略。 VLLM的应用不仅局限于游戏中,它也可以在教育领域发挥重要作用。教育者可以利用VLLM的推理引擎开发更多有趣的教学资源,帮助孩子们在解决问题和推理推测过程中积累知识和技能。此外,VLLM还可以为教育者提供相关反馈和评估,帮助他们更好地了解学生的学习情况和需求。 总之,VLLM为llama2带来了智能推理的能力,使得孩子们能够通过游戏和探索培养自己的思维能力和推理能力。同时,VLLM的应用也拓展了教育领域的可能性,为教育者和学生提供更多有趣和有效的学习资源和工具。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值