大模型面试
文章平均质量分 86
TAICHIFEI
上士闻道,勤而行之;中士闻道,若存若亡;下士闻道,大笑之。不笑不足以为道。
展开
-
Flash Attention介绍
Flash Attention是一种优化Transformer模型中注意力机制的技术,旨在提高计算效率并减少内存使用。原创 2024-06-13 15:19:32 · 793 阅读 · 0 评论 -
大模型--LangChain介绍
LangChain 是一个功能强大的框架,旨在简化与大规模语言模型交互的开发过程。通过提供链、记忆、提示、数据代理和工具等模块,LangChain 使开发者能够轻松构建复杂的 NLP 应用,如对话系统、内容生成工具和智能助手等。其多模型支持、自定义链和状态管理等特性,使得应用开发更加灵活和高效。原创 2024-05-23 14:52:39 · 475 阅读 · 0 评论 -
大模型面试--大模型(LLMs)基础面
这些开源大模型和平台提供了强大的工具和资源,帮助研究人员和开发者在各种任务中应用最先进的机器学习模型。这些模型和框架不仅在 NLP 领域占据重要地位,也在计算机视觉、多模态数据处理等领域取得了显著的成果。Encoder:将输入序列编码为一个固定长度的上下文向量(或一系列向量)。Decoder:使用该上下文向量生成输出序列。单向解码器:只能访问当前时间步及之前的时间步的输入信息。部分双向解码器:在生成阶段,只能访问生成过程中的之前的输出,但在编码阶段可以利用上下文信息。原创 2024-05-23 10:19:51 · 377 阅读 · 0 评论