芯片快速迭代优化大模型应用

2024-05-26 08:08 来源:中国经济网-经济日报
查看余下全文
(责任编辑:王惠绵)
手机看中经经济日报微信中经网微信

芯片快速迭代优化大模型应用

2024年05月26日 08:08   来源:中国经济网-经济日报   

  国内人工智能大模型市场正在经历一场价格战。字节跳动、阿里云、百度、腾讯、科大讯飞等公司纷纷加入战局,价格一降再降。有业内人士甚至开玩笑说,下一家跟进的厂商可能得倒贴钱来奖励客户用大模型了!

  这场价格战是迟早的事。2022年底,美国OpenAI公司的ChatGPT掀起人工智能大模型热潮,一年半以来,国内外大模型市场风起云涌。今年3月,国家数据局局长刘烈宏曾在一次论坛上透露,中国10亿参数规模以上的大模型数量已超过100个。

  从技术逻辑看,这场价格战是GPU算力与模型优化快速进步的必然结果。

  GPU芯片的快速迭代让同样的计算量成本更低,模型优化则让同样的推理任务所需计算量更少。比如,百度是国内“百模大战”最早入局者之一,其文心一言大模型已经迭代至4.0版本,与一年前刚推出时相比,推理性能增长了105倍,推理成本降到了原来的1%。大模型的训练成本和推理成本不断降低。而降低价格提高使用量,才能持续打磨出更好的大模型,也才有可能在未来进一步降低模型推理的单位成本。

  从商业逻辑看,大模型应用创新正进入密集探索期,降价是企业争夺用户和扩大市场的惯常做法。

  从去年下半年开始,大模型就已经开始从“卷技术”向“卷应用”转变。不只是国产大模型在降价,OpenAI等国外大模型公司也在不断下调大模型价格。大模型降价的主要目的是通过降低使用成本来吸引更多开发者。这将让中小企业和个人开发者更加轻松地开发出直面消费终端的丰富应用。如果没有大量开发者加入,大模型仅作为聊天机器人使用,就难以实现赋能千行百业的应用生态,也难以更深入地嵌入各行业工作流程中,促进生产力的实质提升。

  推力也有主次之分。当前,大模型算力成本虽有下降,却依旧高昂,收费使用尚且是赔本赚吆喝,打价格战就更需要资金支持。此轮大模型降价,主要由商业逻辑推动。对不差钱的大厂和融到巨资的创业公司来说,价格战是保持市场竞争优势的重要手段,在放水养鱼、做大蛋糕的同时,有望实现跑马圈地、成为未来大模型普及时代的基础设施供应商。而对资金紧张的“炼大模型”公司来说,这轮价格战可能导致他们尚未成熟就惨遭淘汰出局。

  价格战能否迎来乐观预测的“大模型应用爆发元年”还有待观察,需要考虑市场整体环境、技术创新进度和政府监管政策等多方面因素。

  从市场环境看,今年1月至4月,国内大模型相关项目中标公告已发布近200个,中标数量超2023全年总数,表明大模型的应用需求正快速增长;能源、政务、电信成为中标项目最多的3个行业,大模型高速渗透进传统行业反映了其跨行业应用价值。看技术进度,中美之间的差距正在缩小,最新的大模型测评榜单上,中国已有多个大模型进入全球20强甚至10强;在中文分榜里,零一万物的Yi-Large模型更是与OpenAI公司的GPT-4o模型并列世界第一。2023年8月《生成式人工智能服务管理暂行办法》施行,同年10月《全球人工智能治理倡议》发布,今年《政府工作报告》又提到开展“人工智能+”行动,中国一直坚持发展和安全并重的原则,鼓励人工智能创新发展。

(责任编辑:王惠绵)

精彩图片