为何OpenAICEO说大语言模型规模已接近极限?

分类: 横看IT |
我们理解的大模型必然是越大越好,不过,OpenAI的CEO奥尔特曼却表示大模型并非越大越好。奥尔特曼认为,我们正在接近 LLM 规模的极限,规模越大并不一定意味着模型越好,而可能只是为了追求一个数字而已。LLM 的规模不再是衡量模型质量的重要指标,未来将有更多的方式来提升模型的能力和效用。
对这一点其实我们的观点也是一样的,在精细化的赛道上,更加专业的集中于某个领域或者区域的算力才是最主要的,这样一方面可以节省资源,另一方面也真正能物尽其用,想囊括各个领域是不现实的,算力本身也达不到,或者需要一个异常庞大的算力结构才能支撑,而这样做的必要性大不大?这或许是下一步细分的焦点,其实我们看到国内很多企业进入到生成式人工智能领域,也是在自己擅长的范围内进行布局,并不是一股脑儿地铺开。因为那样没有必要,而且极有可能是出力不讨好。
奥尔特曼认为,OpenAI 的目标是为世界提供最有能力、最有用、最安全的模型,而不是为了参数数量而自我陶醉。国内市场,互联网巨头纷纷布局AIGC领域,在细分的赛道上各自发力,也是专注于某一方面的深入研发以及应用。这是非常明智的。
对于安全问题,奥尔特说,OpenAI 已经在这个领域工作了七年,他愿意公开讨论安全问题和模型的局限性,因为这是正确的事情。其实这也是回应马斯克对人工智能安全性质疑的一种做法。有一些人担心人工智能会最终“毁灭”人类,因为开始杞人忧天,其实大可不必,科技技术的进步必然会迈入一个全新领域,如何认知和防范是在掌握技术的基础上,而不是因噎废食的阻止上。堵塞永远都不是好办法。