Python调用Gemini模型如何统计Token数量?
tags:Google Gemini、token统计、LLM调用、python、AI开发经验
前几天在用 Google Gemini 的 API 做内容生成的时候,碰到一个很细节但实际很重要的问题:到底我发出去的 prompt 消耗了多少 token?模型的回应又用了多少?总共花了我多少钱?
带着这个问题,我翻了一下文档,发现 Google 的 genai
库居然已经内置了 Token 统计功能,支持直接调用来查看 prompt 和回应的 token 数量,而且用法也非常简单,下面直接讲讲我是怎么用 Python 来搞定这个事的。
一、环境准备
你需要先安装 Google 官方的 google-generativeai