人工智能
文章平均质量分 88
分享人工智能相关内容
奔波儿灞爱霸波尔奔
一个在安防行业摸爬滚打10年+的测试人
展开
-
浅谈人工智能之大模型的流式调用:Java 后端实践
在现代AI应用中,大模型(如阿里云的Qwen、百度的ERNIE等)因其强大的语义理解和生成能力而备受关注。然而,这些模型往往伴随着庞大的计算资源消耗,尤其是对于长时间的对话或大规模文本生成任务。为了解决这一问题,流式调用技术应运而生,它允许开发者以流的方式与模型交互,从而实现实时响应和高效资源管理。本文将详细介绍如何在Java后端中实现大模型的流式调用。原创 2024-10-08 16:38:55 · 92 阅读 · 0 评论 -
浅谈人工智能之大模型的流式调用:Python版
在深度学习和自然语言处理领域,大模型的应用日益广泛,它们能够处理更复杂、更精细的任务,但同时也带来了计算资源和内存占用的挑战。为了有效利用资源并实时响应用户请求,流式调用成为了一种重要的技术手段。本文将分为两部分,分别介绍纯后端版本和前后端结合版本的流式调用实现方法。原创 2024-10-08 11:42:16 · 551 阅读 · 0 评论 -
浅谈人工智能之基于HTTP方式调用本地QWen OPenAI接口(Java版)
Qwen是阿里云推出的一款超大规模语言模型,其强大的自然语言处理能力使其成为开发智能应用的热门选择。本文将指导你如何使用Java通过HTTP方式调用Qwen的OpenAI接口,实现文本生成、问答等高级功能。我们在使用spring ai的发现,java要求的版本是java 17,但是我们很多时候可能当前电脑安装的java 版本是8,所以我们可以通过http协议的方式进行大模型接口调用。原创 2024-09-19 17:02:39 · 863 阅读 · 0 评论 -
浅谈人工智能之Java调用基于Ollama本地大模型
通过上述步骤,你可以在Java应用程序中无缝集成基于Ollama的本地大型语言模型,为你的项目增添强大的自然语言处理能力。随着Ollama及其支持的模型不断更新,持续探索和优化模型调用策略,将能进一步提升应用性能和用户体验。原创 2024-09-18 15:42:59 · 1093 阅读 · 1 评论 -
浅谈人工智能之基于ollama本地大模型结合本地知识库搭建智能客服
Ollama是一个开源项目,它使得在本地部署和运行大型语言模型变得简单易行。通过Ollama,用户可以绕过云服务,直接在本地服务器或设备上运行包括Llama系列在内的多种预训练模型,从而保障数据的隐私性和可控性。关于ollama的安装,可以参考之前的文章:根据操作系统进行选择部署浅谈人工智能之Windows:基于ollama进行本地化大模型部署浅谈人工智能之Linux:基于ollama进行本地化大模型部署● Ollama:本地模型运行环境。原创 2024-09-12 13:45:15 · 1065 阅读 · 0 评论 -
浅谈人工智能之Python调用AutoGen Studio SDK
在之前的文档中我们讲解了如何以及并且进行执行。今天我们介绍如何通过Python调用AutoGen Studio提供的SDK来运行workflow,即AI Agent。原创 2024-09-10 14:54:59 · 1070 阅读 · 0 评论 -
浅谈人工智能之基于本地大模型的前后端平台开发示例
随着人工智能技术的飞速发展,本地大模型(Large Language Models, LLMs)因其强大的语言理解和生成能力,逐渐成为驱动新一代智能应用的核心。本文档旨在通过一个实际案例,展示如何在前后端平台上集成和利用本地部署的大规模语言模型,以构建一个交互式AI辅助文本创作工具。该示例将涵盖技术选型、系统架构设计、关键实现步骤以及性能优化策略。原创 2024-09-10 10:19:55 · 631 阅读 · 0 评论 -
浅谈人工智能之基于ollama的常见变量设置
问题显示如下:第一步:输入如下命令:第二步:我们在任意一个位置进行命令验证:上述内容可以知道,我们可以把ollama设置为全局命令。第一步:右键我的电脑-属性-高级系统设置,点击“高级系统设置”第二步:在打开的系统属性界面中点击高级-环境变量第三步:在环境变量界面中点击系统变量中的新建按钮第四步:在跳出来的新建系统变量界面中,变量名设置为:OLLAMA_MODELS,变量值设置为D:\LLM\OllamaLLM\models,然后点击确定对设置的环境变量进行保存。第五步:重新创建模型,可以看原创 2024-09-09 16:25:03 · 579 阅读 · 0 评论 -
浅谈人工智能之python调用通义千问API
第一步:我们登录第二步:点击界面上查看我的API-KEY第三步:在跳出来的界面中,点击创建API-KEY第四步:在跳出来的界面中,在描述中输入“test”,然后点击确定第五步:我们可以看到我们创建的API-KEY至此,我们创建完成API-KEY。原创 2024-09-07 15:41:04 · 780 阅读 · 0 评论 -
浅谈人工智能之基于AutoGen Studio+Ollama本地大模型构建AI Agent
随着人工智能技术的飞速发展,大型语言模型已成为推动创新应用的关键力量。然而,云服务的使用虽然便捷,但面临着数据安全、延迟及成本等挑战。为解决这些问题,越来越多的开发者选择在本地部署大模型。本文将介绍如何利用AutoGen Studio与Ollama这一强大的组合,在本地搭建高效、安全的AI Agent。通过这一方案,开发者不仅能够享受大模型的强大功能,还能确保数据的私密性和降低运行成本。原创 2024-09-06 10:45:11 · 1612 阅读 · 0 评论 -
浅谈人工智能之Linux:基于ollama进行本地化大模型部署
今天我们就介绍在离线的环境中如何在Linux操作系统上搭建基于基于ollama进行本地化大模型部署。原创 2024-09-05 11:54:53 · 1210 阅读 · 0 评论 -
浅谈人工智能之基于AutoGen Studio+litellm+ollama构建model
随着自然语言处理技术的飞速发展,基于大型语言模型(Large Language Models, LLMs)的应用越来越广泛。本指南旨在介绍如何利用AutoGen Studio、litellm和ollama这三大工具,高效构建并部署具备高级对话能力的多智能体系统。通过整合这些工具,开发者能够轻松地在本地环境中搭建起功能强大、灵活且可定制的大型语言模型应用。原创 2024-09-04 15:54:22 · 1037 阅读 · 0 评论 -
浅谈人工智能之VSCode:使用插件与ollama本地大模型交互
通过在VSCode中集成Ollama插件,开发者和研究者能够以更加高效和便捷的方式利用本地部署的大规模语言模型进行文本生成、创意探索或原型测试。随着技术的不断进步,未来可期待更多高级特性的加入,进一步提升用户体验和生产力。请持续关注插件的更新和Ollama项目的最新动态,以充分利用这一强大的开发工具组合。原创 2024-09-04 10:44:57 · 1655 阅读 · 0 评论 -
浅谈人工智能之Windows:基于ollama进行本地化大模型部署
Ollama是由Meta公司开源的一个命令行工具,旨在帮助开发者和研究者在本地计算机上轻松部署和运行大型语言模型。它支持多种知名模型,如Llama 3、Code Llama等,通过Docker容器化技术,用户无需关心复杂的环境配置,即可快速启动模型服务。通过Ollama,本地化部署大模型变得简单且高效。这不仅保障了数据的隐私安全,还提供了灵活的定制化选项和低成本的运行环境。无论是研究、开发还是个人学习,Ollama都是一个值得尝试的强大工具。原创 2024-09-03 20:20:42 · 1590 阅读 · 0 评论 -
浅谈人工智能之基于AutoGen Studio+语聚AI API构建智能体技能
在快速迭代的软件开发环境中,高效、准确的代码生成和语言处理能力成为了提升开发效率的关键因素。本文档旨在介绍如何结合AutoGen Studio与语聚AI API,实现智能化的代码自动生成与自然语言处理功能,从而加速项目开发周期,提高代码质量。AutoGen Studio是一款强大的代码自动生成工具,它通过预定义的模板和配置,能够根据用户需求自动生成高质量的代码片段或整个应用程序框架。该工具支持多种编程语言,包括但不限于Java、C#、Python等,广泛应用于后端服务、前端界面、数据库脚本等领域。原创 2024-09-03 11:06:29 · 1138 阅读 · 0 评论 -
浅谈人工智能之基于anaconda的AutoGen Studio环境搭建
AutoGen Studio 是一个基于 AutoGen 框架的图形用户界面(GUI)工具。它使开发人员能够更轻松地创建和管理多智能体应用,而无需编写代码。AutoGen Studio 提供了拖放式界面和各种预构建模块,可以简化多智能体应用的开发过程。但是,AutoGen Studio 的灵活性不如 AutoGen,并且它可能不适用于需要高度定制的应用。[引用:https://blog.csdn.net/weixin_40090689/article/details/140124349]原创 2024-09-02 09:41:11 · 420 阅读 · 0 评论