
AIGC实践与人工智能
文章平均质量分 78
AIGC实践与人工智能
优惠券已抵扣
余额抵扣
还需支付
¥19.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
代码简单说
wx代码简单说同步更新。Vue、JAVA、PHP、Node.js 熟练运用,接口、架构、性能全搞定。接官网/后台/小程序/公众号开发 有意私信详聊。
展开
-
如何在 Node.js 中使用 Axios 获取 Gemini 模型列表和模型详情
通过上述步骤,你可以在 Node.js 中使用 Axios 请求 Gemini 模型列表以及单个模型的详细信息。这个过程将帮助你与 Google 的 Gemini API 进行交互,获取所需的模型数据。你可以根据自己的需求,调整 API 请求的参数,进行进一步的操作。希望这篇文章能够帮助你顺利集成 Gemini API,如果有任何问题,欢迎在评论区提问!原创 2025-05-19 15:51:40 · 10 阅读 · 0 评论 -
Python调用Gemini模型如何统计Token数量?
在你使用 Gemini API 前,可以先用预估 token,再调用并通过拿到真实 token 使用详情,控制成本和输出更有把握。原创 2025-05-19 14:36:55 · 195 阅读 · 0 评论 -
Python调用Gemini实现流式响应和多轮对话功能
用可以实现“流式响应”,不用等完结果再显示。用和可以构建支持上下文的“多轮对话”。相比OpenAI,Gemini SDK更轻量,尤其在聊天体验方面处理得很细腻。下篇我打算讲讲如何用Flask+Gemini做个网页AI助手,关注不迷路~原创 2025-05-19 00:55:29 · 14 阅读 · 0 评论 -
SillyTavern到底怎么用?酒馆的常见问题一览!
SillyTavern 是一款低门槛、高自由度、可玩性极强的 AI 互动平台。无论是写故事、跑团、模拟恋爱还是做交互小说,它都能成为你的得力助手。只要配置好模型,选对角色卡,玩法真的可以上天。如果你也有遇到问题,可以在评论区留言,我会持续更新这份【SillyTavern 酒馆常见问题手册】。👉。原创 2025-05-19 00:27:40 · 52 阅读 · 0 评论 -
只需几步,教你快速上手 SillyTavern 聊天酒馆
如果你只是想简单体验一下聊天,AI Horde 方式更推荐,无门槛,开箱即用;如果你有 OpenAI 账号,使用 GPT-4 能获得更自然的回复。不管你是想写小说、陪聊、还是做角色扮演,SillyTavern 都能成为你的理想选择。如果你想深入了解如何部署在服务器、接入本地模型(如 llama.cpp 或 koboldcpp),或者配置更复杂的插件系统,欢迎关注我的下一篇文章!👇。原创 2025-05-18 13:54:02 · 25 阅读 · 0 评论 -
nodejs计算Gemini消耗token令牌数的方法
Google Gemini 的 SDK 真的做得挺人性化的,不用自己手撸分词算法,也不用依赖第三方工具,比如 tiktoken。直接一行代码就能获得 token 数——这对我这种 Node.js 工程师来说,是相当舒服的开发体验了!你平时统计token是怎么做的?还有没有更优雅的方式?评论区来聊聊!原创 2025-05-17 14:52:32 · 15 阅读 · 0 评论 -
SillyTavern的聊天面板的高级用法 原来酒馆还能这样玩,太强了!
SillyTavern 聊天面板不仅是个输入框,而是一个完整的多轮对话创作工作流。编辑提问、改写回答、生成图像、做语音朗读一键翻译、多版本 Swipe 回复探索 AI 的生成逻辑与 Token 概率保存分支、管理聊天记录和角色设定💡写提示词脚本时,把回答编辑优化 + Swipe 找最佳效果。翻译和生成图片,用于内容创作特别高效。配合 Stable Diffusion 或 TTS 插件,做图 + 出音频一气呵成!原创 2025-05-15 11:31:07 · 32 阅读 · 0 评论 -
Python 爬取懂车帝销量榜数据教程(Next.js + 内嵌 JSON)
本教程介绍了如何使用 Python 爬取懂车帝销量榜数据。首先,通过分析页面源代码,发现销量数据嵌入在 __NEXT_DATA__ 脚本的 JSON 结构中。接着,使用 requests 和 BeautifulSoup 库请求页面并解析 JSON 数据。脚本提取了每辆车的排名、车型、品牌、价格、销量和图片等信息,并打印输出。教程还提供了数据结构说明和注意事项,建议使用浏览器 UA 并避免猜测接口,确保数据抓取的稳定性。此方法适用于定时监控销量数据。原创 2025-05-15 00:27:53 · 25 阅读 · 0 评论 -
用 Docker 一键部署 SillyTavern酒馆 mac/windows/linux通用教程,我再也不手动折腾了!
本文介绍了如何使用 Docker 一键部署 SillyTavern 项目,适用于 Mac、Windows 和 Linux 系统。SillyTavern 是一个本地部署的大语言模型聊天界面,支持多种插件和扩展。文章详细说明了安装 Docker、拉取项目、启动容器、配置白名单、启用插件等步骤,并提供了常见问题的解决方法。通过 Docker 部署,用户可以避免繁琐的手动配置,快速搭建和运行 SillyTavern,适合希望简化部署流程的用户。原创 2025-05-14 23:00:00 · 42 阅读 · 0 评论 -
安卓手机部署酒馆 SillyTavern 全攻略(Termux 本地安装教程)
本文详细介绍了如何在安卓手机上通过 Termux 环境本地部署 SillyTavern,一个功能丰富的角色扮演对话 AI。步骤包括安装 Termux、Git,克隆 SillyTavern 仓库,安装 Node.js 和依赖,启动 SillyTavern,以及可选的高阶玩法——安装 TAI-Extras 扩展模块。文章还提供了常见问题的解决方案和优化技巧,如更新 SillyTavern、处理报错、文件访问、添加快捷命令和禁用安卓后台进程杀死。通过本教程,用户可以在安卓手机上体验本地部署的 AI 对话,享受更高原创 2025-05-14 20:15:00 · 182 阅读 · 0 评论 -
SillyTavern 酒馆在 Mac 和 Linux 上的部署教程(含启动器安装方法)
SillyTavern 是一个支持多种大模型聊天接口的本地前端项目,适用于 MacOS 和 Linux 系统。本文提供了两种部署方式:手动安装和使用 SillyTavern Launcher 安装器。手动安装需要先安装 Git 和 NodeJS,然后克隆项目源码并运行启动脚本。使用 Launcher 则更为简便,适合新手用户,能够自动安装依赖和配置环境。部署完成后,用户可以通过浏览器访问本地服务器,加载角色卡片并连接大模型 API,享受二次元角色扮演聊天的乐趣。无论是开发者还是终端用户,都能轻松完成 Sil原创 2025-05-14 19:30:00 · 129 阅读 · 0 评论 -
装个酒馆咋这么难?Windows 用户一文看懂 SillyTavern 安装全流程
本文详细介绍了在Windows系统上安装SillyTavern的完整流程,旨在帮助用户避免常见的安装陷阱。文章首先强调了环境准备的重要性,包括安装Node.js和Git,并提醒用户不要将软件安装到系统目录或使用管理员权限运行。接着,文章提供了三种安装方法:使用Git手动克隆仓库、使用SillyTavern启动器以及使用GitHub Desktop,每种方法都附有详细的步骤说明。最后,文章总结了安装过程中需要注意的关键点,并鼓励用户在遇到问题时留言交流。通过本文,用户可以更顺利地完成SillyTavern的安原创 2025-05-14 15:14:04 · 26 阅读 · 0 评论 -
本地玩转AI还得靠这个,SillyTavern(酒馆)到底有多强?
SillyTavern是一款本地运行的LLM交互前端,支持文本生成、图像生成、语音合成等功能。它最初是TavernAI的分支,现已独立开发,社区活跃,功能更新频繁。SillyTavern通过前端UI和插件系统连接各种大模型后端,如OpenAI、KoboldAI等,用户可以在本地创建“虚拟酒馆”与各种角色对话。其功能亮点包括角色卡、角色记忆、世界设定、多人聊天室、自定义UI和行为脚本、插件扩展支持等。SillyTavern适合AI创作用户、AI工程师、LLM爱好者和AIGC创作者。它有两个维护分支:relea原创 2025-05-14 15:09:08 · 75 阅读 · 0 评论 -
酒馆Gemini突然报429是什么原因?使用不了Gemini2.5Pro模型怎么办
这个事情其实给我提了个醒:靠酒馆、转发、灰产通道虽然方便,但一旦谷歌出手限制,整个系统链就会全崩。所以要么就用 Flash 模型凑合用,要么就老老实实上正规 API Key。这次的 429 报错,只是个开始,未来对免费KEY的打击只会越来越严。原创 2025-05-14 15:00:28 · 28 阅读 · 0 评论 -
Python 获取 Gemini 模型列表和模型详情的方法
标签:Python、Gemini、Google GenAI、模型调用、模型列表、AI开发这几天在搞一个 AI 应用原型,需要对接 Google 的 Gemini 模型。想要动态获取所有支持或的模型,还要拉到模型的详细参数,比如 token 限制、温度控制等,便于根据不同场景选择最合适的模型。看了文档才发现,其实 Google 官方的包已经封装得非常清晰了。今天这篇文章就来分享下我用 Python 获取 Gemini 模型列表和模型详情的完整方法,代码极其简单,适合快速集成到自己的项目中。原创 2025-05-14 14:35:58 · 17 阅读 · 0 评论 -
如何编写优质提示词让 Gemini 更准确地描述图片减少ai大模型幻觉?六个关键维度你了解吗?
即便是最先进的多模态模型,也依赖于人类提供的“问题”来推理答案。**清晰、具体、结构化的提示词,能够显著提高模型对图像内容的理解能力。**一个好的 prompt 不仅能“告诉模型做什么”,更能“引导它怎么做”。原创 2025-05-14 08:30:00 · 313 阅读 · 0 评论 -
Gemini 1.5/2.5/Flash/Pro到底有什么区别?直接表格对比 一文告诉你该怎么选!
Google的Gemini系列模型包括多个版本,如Gemini 1.5 Pro、Gemini 1.5 Flash、Gemini 2.5 Pro、Gemini Vision等,每个版本在功能、Token上下限、接口能力和版本类型上有所不同。原创 2025-05-14 00:41:51 · 47 阅读 · 0 评论 -
无需服务器一键部署Gemini中转 API的方法
有时候图省事就是埋隐患,尤其是和 AI 接口打交道的时候,数据、隐私、成本、安全,哪一样都不能掉以轻心。我用的是 vercel,你也可以根据自己习惯选其他平台。原创 2025-05-14 00:00:06 · 231 阅读 · 0 评论 -
一行代码调用Gemini!Python接入大模型生成AI文本太简单了!
本文介绍了如何使用Python调用Google的Gemini多模态AI模型生成文本内容。Gemini支持文本、图片、音频等多种输入类型,输出为文本。文章详细说明了如何通过安装Google的SDK并获取API Key来调用Gemini模型,并提供了基础调用示例和系统提示词的用法。此外,还介绍了模型的不同版本及其适用场景,并预告了更多高级玩法,如图片识别、音频分析等。通过本文,用户可以轻松上手使用Python调用Gemini模型进行AI文本生成。原创 2025-05-13 23:33:03 · 22 阅读 · 0 评论 -
一张图搞懂 Gemini 所有模型:别再乱选模型踩坑了!
Google 这一套 Gemini 模型命名方式确实有点反人类,但好在每个模型都有专属的用武之地。希望这张表能帮你少踩一些坑,用最合适的模型解决最适合的问题。如果你正在开发 Gemini 接入服务,比如 AI 文生图、智能客服、语音助手——欢迎评论区交流。原创 2025-05-13 08:00:00 · 167 阅读 · 0 评论 -
用 Node.js 实现 Base64 图片上传并调用 Gemini 给图ai自动打标签,太方便了!
本文介绍了如何使用 Node.js 实现 Base64 图片上传,并通过调用 Google 的 Gemini 模型自动为图片打标签。文章详细描述了项目背景、技术实现流程以及 Gemini 模型的强大功能。通过 Express 框架接收前端上传的 Base64 图片,解码后发送给 Gemini 模型进行处理,最终返回详细的标签结果。Gemini 模型支持多模态输入,能够理解场景并输出自然语言标签,适用于内容审核等场景。文章还提供了代码示例和使用技巧,强调了 Gemini 在图像识别中的优势,如上下文理解能力强原创 2025-05-12 16:29:36 · 362 阅读 · 0 评论 -
Node.js如何用Gemini API上传图片给图片打标签,AI自动理解图像内容太丝滑了
本文介绍了如何使用Node.js结合Gemini API为图片自动打标签,实现图像内容的自动理解。Gemini是谷歌推出的多模态大模型,能够处理复杂的图像识别任务,如自动添加注释、回答图片相关问题、检测物体位置等。文章详细说明了准备工作,包括安装Gemini SDK、获取API Key和准备测试图片,并提供了核心代码示例,展示了如何上传图片、调用Gemini模型生成内容并输出结果。此外,文章还提供了一些实战建议,如使用Base64上传方式、优化Prompt等。通过Gemini API,开发者可以简化图像理解原创 2025-05-12 16:09:09 · 177 阅读 · 0 评论 -
无需海外服务器也能访问Gemini大模型的方法 搭建个人gemini中转api
想国内稳定访问 Gemini 接口又不想折腾翻墙代理又希望部署轻量、成本为零那这套 Cloudflare Workers 中转方案,简直是为你量身打造!原创 2025-05-09 11:06:50 · 362 阅读 · 0 评论 -
Node.js 调用 Gemini 生成图片的方法
虽然 Gemini 在生成图像这块还不是特别开放(没有现成图像文件返回),但对于多模态的探索、生成图像描述、结合前端图像渲染等场景,已经非常有潜力了。💡 小建议:配合 Puppeteer、Canvas、或 OpenCV 的方式处理图像,体验会更完整!原创 2025-05-06 14:58:34 · 123 阅读 · 0 评论 -
两分钟教你如何使用Node.js 调用 Gemini 2.5 Pro/Gemini 1.5 Pro的方法
谷歌还是懂技术的!虽然对话次数每天有上限,但应对日常写代码、提问、翻译、总结啥的,已经够用了。原创 2025-05-06 14:48:58 · 73 阅读 · 0 评论 -
为什么Whisper这么牛?Whisper模型怎么选?普通人也能听懂的解读
Whisper是开源的,遵循MIT协议,商用也没问题,非常佛系。以后如果做语音转文字、智能助理、多语言翻译相关的应用,Whisper绝对是一个非常靠谱的底层能力。如果你想看更多使用示例,可以去官方的Show and Tell板块逛逛,很多大佬分享了各式各样的玩法。Whisper真的是目前开源圈里能用、好用、免费、通吃各种语音的神器!原创 2025-04-28 22:47:56 · 40 阅读 · 0 评论 -
腾讯地图MCP服务接入指南:3步教你搞定!
标签:腾讯地图、MCP Server接入、位置服务、SSE、APIKey申请前两天刷新闻的时候发现腾讯地图出了mcp服务,想着试用一下看看效果,最开始还以为很复杂,结果踩了几坑之后发现流程其实挺简单。今天就来把我的经验整理一下,顺便分享给需要的朋友,希望能帮你们少走点弯路。原创 2025-04-27 22:18:55 · 79 阅读 · 0 评论 -
Python调用硅基流动API,白嫖可图Kwai-Kolors大模型一键生成高清图片!
硅基流动目前开放了纯文本生成:根据输入的Prompt,直接生一张新图图+Prompt变体生成:在已有图像基础上,加提示词修改生成而且目前使用是免费的!(可能后面会限额,趁现在赶紧上车)原创 2025-04-27 23:00:00 · 69 阅读 · 0 评论 -
Python调用硅基流动APi使用Qwen2.5,5分钟搞定图片分析!
Python 图片识别 | 硅基流动 | OpenAI兼容API | AI视觉大模型这两天我在做一个小工具,需要快速识别图片里的内容,想着要不试试新出的硅基流动(SiliconFlow)平台。听说他们家API兼容OpenAI格式,国内访问速度也快,关键还能直接调视觉大模型,听着就挺香的。于是我就顺手写了个Python脚本,真没想到不到5分钟就搞定了图片分析!今天把完整流程分享出来,绝对干货!原创 2025-04-27 17:10:00 · 181 阅读 · 0 评论 -
代码调用硅基流动(siliconflow)api实现流式回复的教程 Python版+Node.js版axios示例一篇搞定
✅ 如果你用Python,直接 openai SDK 一把梭,体验最舒服。✅ 如果你用Node.js,axios走标准POST也很香,处理起来很灵活。✅ 硅基流动的模型调用和OpenAI接口一模一样,接入门槛超低!记住最重要的一点:**base_url 要改成硅基流动的地址!**不然你以为你请求的是openai,其实根本连不上。原创 2025-04-27 16:54:51 · 177 阅读 · 0 评论 -
2025最新国内DeepSeek R1/V3免费接入使用平台汇总 DeepSeek平替推荐超算、秘塔、纳米、硅基、元宝等AI平台满血体验联网模型
相比于其他大型AI模型,DeepSeek R1不仅具备对标OpenAI GPT-4的推理能力,还能大幅降低推理成本,仅为行业平均的3%。未来,随着更多企业和科研机构的深度合作,R1模型将进一步推动AI技术的普及与创新,为全球开发者带来更强大的生产力工具。DeepSeek R1满血版(671B参数)凭借卓越的推理能力和开源优势,在全球AI应用领域脱颖而出,成为开发者的热门选择。A1:满血版R1采用完整训练权重,推理能力更强,适用于高阶应用场景,而普通版本可能经过精简,适用于轻量级任务。原创 2025-03-15 14:12:11 · 169 阅读 · 0 评论 -
使用ollama实现DeepSeek本地部署教程
通过上面的步骤,你可以轻松地在本地环境中安装和使用DeepSeek-V3模型。无论是通过命令行方式还是可视化界面,DeepSeek都能为你提供一个强大的智能助手,助你在各种场景中获得高效的帮助。希望这篇文章能帮助你快速上手并享受到AI带来的便捷!原创 2025-03-14 10:35:46 · 331 阅读 · 0 评论 -
局域网内网访问 ComfyUI 的两种方法
最近在用 ComfyUI 处理图片,想着在局域网内访问,结果默认只允许本机访问,查了一圈资料,发现有两种方法可以让局域网的设备访问 ComfyUI,整理出来分享给你。原创 2025-03-11 18:50:54 · 675 阅读 · 0 评论 -
ComfyUI 提示Allocation on device 显存占满的解决方法及秋叶整合包的优化方法
最近在玩ComfyUI的时候,发现一个让人崩溃的问题——VRAM一直占满,最终报错:简单来说,就是显卡显存溢出了,导致程序无法继续运行。尤其是一些大模型或者复杂工作流,很容易让显存飙升到极限。那怎么办?直接在启动命令后加上 ,例如:这个参数的作用是啥?默认情况下,ComfyUI会尽量让模型一直留在显存里,即使有些部分暂时用不到,导致显存迟早被填满。而 可以强制让ComfyUI把数据卸载到常规内存,减少显存占用。如果你的显存真的不够用,还可以再加 参数:这个参数的意思就是开启低显存模式,进一步优化原创 2025-03-11 14:09:19 · 3899 阅读 · 0 评论 -
ComfyUI 安装包文件夹详解 models checkpoints clip controlnet vae loras
如果你想安装第三方插件(比如),直接把插件文件夹放到里即可。2.2modelsComfyUI 的目录结构虽然看起来复杂,但主要关注models(模型)、(插件)、output(生成图片)这几个文件夹就行了。如果你想自定义配置,可以修改user目录下的 JSON 文件。如果你遇到文件路径相关的问题,可以参考这篇文章快速找到文件夹位置,避免踩坑。希望这篇文章能帮到你!🔥。原创 2025-03-10 21:54:23 · 229 阅读 · 0 评论 -
2025最新AI绘图显卡天梯及购买指南
如果你预算够,**RTX 4090 永远是最强选择!**但如果只是尝试 AI 绘图,RTX 3060 12GB 也是不错的入门卡。千万别买 GTX 10 系列,性能太差!👉 你的 GPU 是哪款?实际使用体验如何?欢迎留言交流!原创 2025-03-10 21:49:21 · 3712 阅读 · 0 评论 -
如何配置CodeGPT VSCode插件与Ollama本地模型
通过这样的配置,CodeGPT 不仅能提升你的开发效率,还能保证数据的隐私性,因为模型运行在本地,而不是云端。安装完成后,启动插件。不过,即使不登录,你也可以使用一些基础功能,比如代码补全。配置完成后,你就可以在 VSCode 中体验到本地化的 GPT 模型了,进行代码补全、代码优化以及详细的代码解释等功能。在这里,你可以选择多个可用的模型。通过 Ollama,本地化的 GPT 模型可以为你提供更加安全和高效的开发体验。接下来,你需要进行配置,确保 CodeGPT 能连接到你的本地 Ollama 服务。原创 2025-02-19 19:47:33 · 379 阅读 · 0 评论 -
一行命令轻松获取 Ollama 模型列表
通过这行命令,我们可以轻松获取 Ollama 平台上所有可用的模型信息,而无需手动搜索。这不仅节省了时间,也提高了开发效率。如果你是 AI 开发者或者对 Ollama 有兴趣,记得尝试一下这个命令,帮你省去不少麻烦。原创 2025-02-15 21:40:30 · 707 阅读 · 0 评论 -
模型在GPU内存的映射关系——以nvidia/Llama-3.1-Nemotron-70B-Instruct-HF为例
本文通过模型为例,展示了如何分析深度学习模型在多个GPU之间的内存分配情况。通过细致的内存统计与GPU资源管理,我们可以更好地理解大规模模型的内存映射关系,并采取合理的优化策略以保证模型训练和推理的高效性。原创 2024-12-18 00:00:36 · 82 阅读 · 0 评论 -
在对话中微调,提高模型能力:实现用户反馈的收集与自动微调功能
在对话中实时收集用户反馈,并根据这些反馈数据进行模型微调。微调的触发机制是:当收集到足够的高质量反馈数据时,代码会自动触发微调过程,从而优化模型的响应质量。原创 2024-12-17 17:59:30 · 106 阅读 · 0 评论