专家认为AI领域的”百模大战”现象是资源浪费,理想状态是5个!

AIGC最新资讯7个月前发布 AiBots
37 0 0

7月7日,在中国RISC-V产业联盟理事长、芯原微电子创始人戴伟民博士看来,当前AI领域的“百模大战”现象更像是一种资源的浪费。他指出,自ChatGPT引发生成式AI热潮以来,众多企业纷纷投入大模型研发,但这种“群模乱舞”的现象实际上并不经济。要实现超越人脑智能的AI,需要不断扩大模型参数规模,这对计算力的需求呈指数级增长,将导致巨大的电力消耗。他预测,到2028年,中国基础大模型的数量将少于10个,更理想的状态是5个。

专家认为AI领域的
大模型发展现状

近年来,大模型引发社会各界广泛关注,包括芯片、资本、云计算、内容服务商纷纷置身其中,新一代人工智能再掀热潮。以下将详细介绍一些中国大模型的具体规模和发展现状:

专家认为AI领域的
通用大模型

科大讯飞的星火大模型:该模型拥有数十亿参数,能够用于文本生成、分类和机器翻译等多种任务。

百度的文心一言大模型:这是一个预训练模型,具备多任务通用求解能力,参数规模达到数十亿。

阿里巴巴的通义千问大模型:同样拥有数十亿参数,主要用于提升自然语言处理的性能。

 

视觉大模型

商汤的日日新大模型:专注于计算机视觉领域,参数规模数十亿,用于图像处理和分析。

云知声的山海大模型:以视觉任务为主,参数规模也达到了数十亿,特别是在医疗问诊方面有应用。

多模态大模型

DingoDB多模向量数据库:这种类型的大模型能处理多种模态的数据,如图像、文本、语音等,参数规模根据具体应用场景不同而有所差异。

行业专用大模型

蜜度的文修大模型、容联云的赤兔大模型:这些模型针对特定行业或任务设计,参数规模通常也在数十亿左右。

用友的YonGPT大模型:专为特定行业设计,用于提升业务流程效率和准确性。

端侧大模型

vivo的蓝心大模型:这种模型被优化以在移动设备上运行,虽然参数规模较小,但依然保持高效的处理能力。

蔚来的NOMI GPT大模型:用于车载系统中,提升了驾驶体验和人机交互能力。

为何说大模型是资源浪费现象?

巨大的能源消耗:训练一个大型AI模型需要大量的计算资源,耗费数百万瓦的电力,并产生巨额电费。例如,ChatGPT一类的模型每日的电力消耗就超过了50万度,这还不包括训练阶段的能耗。

硬件资源紧张:随着模型规模的扩大,对高性能计算资源的需求也水涨船高,这导致了GPU、TPU等高性能计算设备的供应紧张,影响了其他领域研究和企业需求。

专家认为AI领域的
模型效率低下:大模型往往并不是解决问题的最高效途径。它们需要更多的存储空间,推理速度慢,且在很多情况下,模型大小的增加并不能线性提高性能。对于一些特定场景或边缘设备,更小的、更高效的模型可能更为合适。

过度追求规模:在AI领域内,存在一种“越大越好”的错误认知,导致研究者和公司为了追求规模上的领先而忽视了实际应用中的效果与成本平衡。

在资源有限的情况下,如何更有效地利用资源,提高研发效率,将是AI领域面临的重要问题。同时,这也提醒我们在追求技术进步的同时,不能忽视环保和可持续发展的重要性。

专家认为AI领域的
专家认为AI领域的

© 版权声明

相关文章

暂无评论

暂无评论...