通常情况下,人们在讨论LLM(大型语言模型)时,往往倾向于认为模型的参数越多,其性能就越强大。但事实上,真正重要的是模型的综合理解能力,如果模型能够展现出一定的"意识",那就更加理想了。
听我说,可能现在的你还没有深入思考过这个问题,或者在众多的观点中难以分辨,也难以做到全面理解。但至少这一次,我并不是来质疑你的,所以你可以放轻松些。毕竟你对LLM的理解给我一种还在探索的感觉,而私以为并没有完全抓住核心。
我来说明下,为什么在众多的讨论中会出现我这一条观点。或许是因为我在乎模型的实际应用效果,而不仅仅是参数的数量。你当然可以说参数多的模型在某些情况下表现更好,但这并不代表参数数量就能决定一切。当看到一个模型在处理复杂问题时,不去从实际出发评估其性能,而是按照自己的想法认为参数多就是好,是不是对于评估者而言,看起来有些过于简单化、缺乏深度了呢?
大约 5 分钟