大模型不支持联网搜索?为Deepseek、Qwen、llama等本地模型添加网络搜索

大模型不支持联网搜索?为Qwen、llama等模型添加网络搜索

当我们需要大模型进行联网搜索,但是大模型不支持怎么办?

  1. 给平台联系,告诉他顾客就是上帝,赶紧给我支持!!!
  2. 使用function_call函数调用
  3. 我先搜索,把问题和搜索结果一起给大模型

本文接下来是介绍第三种实现方案,利用SearXNG网络搜索结合大模型,实现联网问答。

在开始之前,基础代码不再编写,在上一篇博文已经进行介绍过了。
请先参考上一篇博文Java快速接入qwen2.5、llama3.1等Ollama平台开源大模型

SearXNG

SearxNG 是一个自托管的搜索引擎,允许用户通过搜索 API 进行网络搜索。内置多款搜索引擎供用户选择或者自由叠加,例如google,bing, google_scholar等等。

SearXNG-GitHub连接:searxng-docker

可以按照官方的readme文档进行部署,已经写得较为清楚了。

重要

注意要修改setting文件,支持json-format

search:
  ...
  formats:
    - html
    - json

坐标引入

注意版本号需要大于等于0.8.1,否则会有一些bug

        <dependency>
            <groupId>io.github.lnyo-cly</groupId>
            <artifactId>ai4j-spring-boot-starter</artifactId>
            <version>0.8.1</version>
        </dependency>

配置yml

application.yml中添加配置


ai:
  ...
  websearch:
    searxng:
      url: "http://127.0.0.1:8080/search"
      nums: 10
      engines: "duckduckgo,google,bing,brave,mojeek,presearch,qwant,startpage,yahoo,arxiv,crossref,google_scholar,internetarchivescholar,semantic_scholar"

使用

仅需要使用aiService.webSearchEnhance就可以实现联网功能。

    @Autowired
    private AiService aiService;

    @GetMapping("/chat")
    public String getChatMessage(@RequestParam String question) throws Exception {
        // 获取OpenAi的聊天服务
        IChatService chatService = aiService.getChatService(PlatformType.OLLAMA);
        chatService = aiService.webSearchEnhance(chatService);
        // 创建请求参数
        ChatCompletion chatCompletion = ChatCompletion.builder()
                .model("qwen2.5:7b")
                .message(ChatMessage.withUser(question))
                .build();


        System.out.println(chatCompletion);

        // 发送chat请求
        ChatCompletionResponse chatCompletionResponse = chatService.chatCompletion(chatCompletion);

        // 获取聊天内容和token消耗
        String content = chatCompletionResponse.getChoices().get(0).getMessage().getContent();
        long totalTokens = chatCompletionResponse.getUsage().getTotalTokens();
        System.out.println("总token消耗: " + totalTokens);

        return content;
    }

结果测试

问:“鸡你太美”是什么梗
答:**“鸡你太美”是一个网络流行语。**

这个梗源于2016年11月29日SWIN-S发布的歌曲《只因你太美》中的歌词“只因你太美”。由于蔡徐坤在综艺节目《偶像练习生》中自我介绍时唱这句歌词的速度过快,被网友误听为“鸡你太美”。

此后,这句话因其独特的发音效果在网络上广为流传,并且激发出了大量围绕它创作的二创内容。这些作品包括鬼畜恶搞视频等,进一步促进了该梗的社会传播。

参考资料:
- [鸡你太美 - 萌娘百科 万物皆可萌的百科全书](https://mzh.moegirl.org.cn/%E9%B8%A1%E4%BD%A0%E5%A4%AA%E7%BE%8E)
- [被批恶俗的“鸡你太美”是什么梗?律师:涉嫌...</span>](https://www.thepaper.cn/newsDetail_forward_22181243)
- [蔡徐坤的“鸡你太美”到底是什么梗?_网易订阅](https://www.163.com/dy/article/EC11Q091051185V9.html)
- [鸡你太美(网络流行语)_百度百科](https://baike.baidu.com/item/%E9%B8%A1%E4%BD%A0%E5%A4%AA%E7%BE%8E/53592938)

20241218234609

### Ollama DeepSeek-r1:8b API 功能限制 对于Ollama平台上的DeepSeek-r1:8b模型而言,其API存在特定的功能限制。具体来说,该版本的API不支持联网问答功能[^1]。 这意味着当调用此API时,任何请求外部网络资源的操作都将被阻止。因此,在设计基于这一API的应用程序时,应当考虑离线环境下的数据处理能力,并预先加载所需的数据集或知识库来弥补无法实时获取最新信息的问题。 为了实现更广泛的任务需求,可以探索其他由Ollama提供支持的不同大小参数量级或其他类型的预训练语言模型作为替代方案。这些模型可能具备不同的特性与优势,能够更好地适应具体的业务场景和技术要求。 #### 替代模型选项 除了`deepseek-r1:8b`之外,还有多个可供选择的语言模型: - **Qwen系列**:如`qwen:32b`提供了更大的参数规模,理论上拥有更强的理解能力和表达力,适合复杂对话理解和生成任务。 ```bash ollama run qwen:32b ``` - **Llama系列**:例如`llama:7b`是一个轻量化但性能良好的通用型大模型,适用于多种自然语言处理应用场景。 ```bash ollama run llama:7b ``` - **Vicuna系列**:像`vicuna:13b`这样的大型多模态模型不仅擅长文本理解还能够在一定程度上处理图像描述等跨媒体任务。 ```bash ollama run vicuna:13b ``` 通过尝试不同配置和特性的模型,可以根据实际应用的需求挑选最合适的选择。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值