Bad case 1:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:clip-interrogator 原理和使用
输出:internlm2.5-b-chat 无法理解输入
Bad case 2:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:针对RKNN模型,能否支持5维的输入?
输出:internlm2.5-b-chat 结果不符合实际,并且没有提供合理的建议
Bad case 3:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:如何构建/生成LLM模型的数据?给出示例
输出:internlm2.5-b-chat 输出不够友好,DeepSeek
每一步都给出了代码示例
Bad case 4:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:如何构建合成数据,用于训练LLM。给出示例。
输出:DeepSeek
每一步都比较详细,并给出代码
Bad case 5:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:Kolors对比SD,优势是什么?
输出:internlm2.5-b-chat 没有识别出 Kolors 以及 SD.
Good case 1:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:internlm2.5-b-chat VS DeepSeek-V2 (深度求索), 哪个更厉害
输出:internlm2.5-b-chat 可以正确识别 LLM 名称
Good case 2:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:QWen-VL的优缺点
输出:internlm2.5-b-chat 在不知道的时候,可以拒绝回答,小胜一局
Good case 3:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:A说B是对的,B说C是正确的,C说A可能是不对的。那谁是对的?
输出:internlm2.5-b-chat 最终给出的结论是对的
Good case 4:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:长安花
输出:internlm2.5-b-chat 有效识别出古诗名称
Good case 5:
来源:compassarea
模型:internlm2.5-b-chat VS
DeepSeek-V2 (深度求索)
输入:“听说景色很美,但我来的不是时候”,给出几个符合这种意境的诗句
输出:internlm2.5-b-chat 给出的诗句更复核意境