- 博客(2)
- 收藏
- 关注
转载 LLM 上下文长度详细介绍
以 DeepSeek 为例:可以看到无论是推理模型还是对话模型 Context Window 都是 64K ,这个 64K 意味着什么呢?请继续往下看。LLM 的 Context Window 指模型在单次推理过程中可处理的全部 token 序列的最大长度,包括:输入部分(用户提供的提示词、历史对话内容、附加文档等)输出部分(模型当前正在生成的响应内容)这里我们解释一下,比如当你打开一个 DeepSeek 的会话窗口,开启一个新的会话,然后你输入内容,接着模型给你输出内容。
2025-06-29 09:24:24
38
转载 python程序日志查看
python相关学习资料:https://edu.51cto.com/video/3832.htmlhttps://edu.51cto.com/video/1158.htmlhttps://edu.51cto.com/video/4102.htmlPython程序日志查看指南作为一名刚入行的开发者,你可能会遇到需要...
2024-07-21 02:06:06
377
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人