玩转LangChain - 2 在本地跑Google新出的Gemma模型

  每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

在“玩转LangChain - 1”一节,我发现自己达到了OpenAI使用限额,需要升级。通过本地运行大型语言模型(LLM),让LangChain可以访问它,这样可以节省一些费用。几周前,谷歌发布了Gemma。让我们试试看。

Ollama 安装Ollama Mac版本,载入Gemma并通过Ollama在本地运行它。最初,我尝试安装Mistral,但发现它有点沉重。相比之下,Gemma 2b只有1G多一点。

运行 

ollama run gemma:2b

安装成功后,我们可以通过内部提问来验证Gemma的反应。

1.安装LangChain

执行

pip install langchain

命令来安装LangChain。运行以下命令以验证安装是否成功:

python -c "import langchain; print('LangChain version:', langchain.version)"

LangChain版本:0.1.11

2. 在测试代码中调用Gemma

from langchain_community.llms import Ollama
import logging

# Configure basic logging
logging.basicConfig(level=logging.INFO)

try:
    llm = Ollama(model="gemma:2b")
    
    # It's good practice to ensure prompts are well-defined. Adjust based on the model's capabilities.
    prompt = ("Who are you? "
              "Are you better than Mistral? "
              "Can you share a detailed comparison?")
    
    response = llm.invoke(prompt)
    print(response)
except ImportError:
    logging.error("Failed to import Ollama from langchain_community. Is the package installed?")
except Exception as e:
    logging.error(f"An unexpected error occurred: {e}")

运行结果

也可以调用Restful API

curl http://localhost:11434/api/chat -d '{
  "model": "gemma:2b",
  "messages": [
    { "role": "user", "content": "hi, who are you?" }
  ]
}'

接收回复需要2-3秒钟,Gemma看起来相当不错。现在,我们准备将更复杂的LangChain作品移植到我们的本地大型语言模型(LLM),同时节省资金。玩得开心!

  • 13
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值