DataGemma是谷歌出的大模型,是gemma 2的升级版,主要亮点是基于检索解决幻觉问题。
在huggingface和kaggle上均可下载模型权重。
检索数据源是Google’s Data Commons知识图谱。
官方博客:https://blog.google/technology/ai/google-datagemma-ai-llm/
官方论文:Knowing When to Ask - Bridging Large Language Models and Data 对论文的讲解,请静待后续推出。
Retrieval-Interleaved Generation (RIG)版:微调gemma2(Gemma2 27B model),识别AI回答中的数据,通过事实验证的思路判断AI回答是否正确,如果不正确就从Google’s Data Commons中找数据来替换。
这个是调用示例代码,必须要付费才能用colab A100,所以我没跑,只看了一遍:https://colab.research.google.com/github/datacommonsorg/llm-tools/blob/main/notebooks/datagemma_rig.ipynb
总之谷歌做了一个调用包,可以直接实现整个问答流程,过程中会自动询问数据库:DataGemma先做出回答,回答中就包括需要向数据库咨询的问题,然后从数据库中检索出数据、数据来源和链接,用以替换数据,得到最终回答。
更形象的,可以参考官方博客中的视频(我在上传了,正在等CSDN审核)
做出回答(|| 后面的是模型自动生成的数据):
最后的脚注中会给出数据来源:
注意colab中的秘钥在这里设置:
输入名称和密钥值即可。
Retrieval Augmented Generation (RAG) 版:就是RAG,先检索Google’s Data Commons中的相关信息,再生成回答。
调用示例代码:https://colab.research.google.com/github/datacommonsorg/llm-tools/blob/master/notebooks/datagemma_rag.ipynb
RAG过程:
官方视频展示(也在上传了)
最终回答:
后附表: