从我的观察来看,我认为一味的追求参数规模反而忽略真实的应用场景是一种本末倒置,摸清用户痛点并落实到实际的应用场景中,才是此轮大模型的“卷点”。Kimi和豆包更注重C端应用,更加懂得在差不多的时间节点中“扬长“与”避短”,现在看来,他们走的很稳,而且他们很会抓用户的心理
1.参数规模≠最终效果
很多国产大模型在发布之初,都热衷于强调自身的参数规模,似乎参数规模越大,就代表着模型的能力越强(有的直接对标ChatGPT,做一张表,横向纵向对比,得出一个超过ChatGPT的分值)。然而,大模型的能力,并非仅仅取决于参数规模,更取决于数据质量、训练方法、算法优化等多个方面(最近一段时间小模型更加受到了青睐)。
举个例子,就像建造一座摩天大楼,仅仅堆砌钢筋水泥是不够的,还需要考虑建筑设计、材料质量、施工工艺等因素。同样,仅仅追求参数规模