
AI对话
文章平均质量分 60
木易:_/
大学生就要一直好好学习,加油!!!
致力于低代码解决实际中重复的操作。
展开
-
【004】deepseek本地化部署后,python的调用方式_#py
的模型文件,大家根据电脑的配置安装对应的模型,如果不是4090显卡建议就安装deepseek-r1:1.5b。其中json中的model的值为“deepseek-r1:1.5b”可替换为其他模型的名称,可以通过。已经有很多大佬们说了不少部署本地化部署deepseek的工作了,我就不过多重复了。需要注意的是,安装ollama后,所有ollama指令通过CMD触发。在python中主要是通过以下代码实现调用。通过这个地址也可以利用浏览器进行调用。,再通过Ollama获取。原创 2025-03-16 22:05:57 · 1043 阅读 · 0 评论 -
【003】调用Kimi实现AI对话,流式内容输出_#py
流式输出(Streaming),一言以蔽之,就是每当 Kimi 大模型生成了一定数量的 Tokens 时(通常情况下,这个数量是 1 Token),立刻将这些 Tokens 传输给客户端,而不再是等待所有 Tokens 生成完毕后再传输给客户端。当你与 Kimi 智能助手 进行对话时,Kimi 智能助手的回复是按字符逐个“跳”出来的,这即是流式输出的表现之一,流式输出能让用户第一时间看到 Kimi 大模型输出的第一个 Token,减少用户的等待时间。原创 2024-10-25 22:51:16 · 593 阅读 · 0 评论 -
【002】调用kimi实现AI对话,文件上传并进行分析_#py
在【001】调用kimi实现AI对话_#py对Kimi有了一定的介绍,以及简单对话和连续对话的程序编写。本次主要希望能通过kimi分析文件,总结文件的能力。原创 2024-10-25 12:31:59 · 1678 阅读 · 0 评论 -
【001】调用kimi实现AI对话_#py
如果是自己一个人用的话,注意 RPM,每分钟可以询问次数。刚注册的话,每分钟只能对话三次,超过的话,就会报警。的网址,按照如下操作获取key,并记住其值,方便后续使用。替换上述两个代码块即可实现连续对话的功能。上面有着丰富的学习资料,可以参考和借鉴。内容输入时将新的内容添加入对话中。调用API时加载初始对话。原创 2024-10-24 14:40:13 · 889 阅读 · 0 评论