使用Llama与PySpark进行Python批量硬件推理:CPU分布式实战

为什么?

本练习是关于使用Llama 2 ( Meta AI的 LLM(大型语言模型))一次总结许多文档。非结构化、半结构化和结构化文本的可扩展摘要本身可以作为一项功能存在,也可以作为输入下游机器学习模型的数据管道的一部分。

具体来说,我们想证明以下同时存在的可行性:

在CPU上运行 Llama 2 (即消除 GPU 容量限制)

LLM 与Apache Spark(大数据生态系统的关键部分)的顺利集成

不使用第三方端点(即,由于气隙基础设施或机密性要求,模型必须在本地运行)

如何?

我们已经做了很多艰苦的工作!

llama.cpp项目通过降低数值权重的分辨率(“量化” ),可以在 CPU 上运行简化的LLM。这些现成的模型文件很容易获得。

接下来,llama-cpp-python绑定提供了在 Python 中使用llama.cpp 的简单访问。

最后,Spark applyInPandas()(文档)能够将巨大的数据源分割成Pandas大小的块并独立处理它们。请注意,如果矢量化 Spark 函数可以实现相同的结果,则此方法可能是一种反模式,但在我们的示例中,我们基本上使用 Spark 作为简单的编排器来扩展llama.cpp的使用。在批处理中使用llama.cpp可能有更有效的方法,但考虑到 Spark 的容错性和可扩展性的简单性和自动优势,这种方法很有吸引力。

计划

作为一项有趣的测试,我们将使用 Llama 2 来总结列夫·托尔斯泰的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值