Bootstrap

AI大模型迎来三波浪潮,中国如何突围?

在Scaling Law(规模与性能的幂律增长规律)若隐若现、似要消失,大模型越来越难找到代际感的今天,中国独有的规模优势或许将在人工智能领域“涌现”。
在这里插入图片描述

有人正努力让人工智能更像人:2024年世界人工智能大会(WAIC),爆发式展示了25款人形机器人,且都被冠以“具身智能”的身份,也就是机器人的身子被AGI(通用人工智能)技术赋予了智慧的大脑。

有人努力让AI落入现实:支付宝推出智能助理,问一问就能获得订票、问诊、查旅行攻略等超8000项数字生活服务;拥有7亿用户、1100万应用的钉钉也已经跑出来了50万个AI助理;联想则推出了内嵌智能体、能与用户自然交互的AI PC。

百度CEO李彦宏所言“不要卷大模型,要卷应用”在网上被热传,蚂蚁集团董事长兼CEO井贤栋则说:“在人工智能时代,我们在探索,让AI像扫码支付一样便利每个人的生活。”

在AIGC(生成式人工智能)大模型技术苦苦寻找应用场景时,中国拥有超大规模用户的平台纷纷下场了。或许还稍显缓慢,但平台的集体出手与探索,让我们有理由期待中国人工智能被动跟随的局面能被改写,特别是在连接个体生活应用的端侧,或将掀起人工智能发展的第三波浪潮。

第三波浪潮:

大模型即将接管生活

Scaling Law是被人工智能领域普遍接受的幂律增长,即:语言模型的性能随着模型大小、数据集规模和训练计算量呈现幂律关系。这意味着在一定范围内,增大模型规模和数据集规模,能够显著提升模型性能。也就是业内常说的:模型越大,性能越好。

但最近半年来,Scaling Law明显放缓,OpenAI也不得不承认,GPT5.0版本要等到明年才能推出。而造成这一现象的根本原因在于,全球普遍出现了算力和数据的供给短缺,特别是数据规模量陷入了极大的瓶颈。机器吃不饱,就导致了大模型的性能输出侧无法完成高质量输出。

在这种情况下,大模型就一直无法解决机器幻觉、高错误率的问题。MiniMax创始人、首席执行官闫俊杰认为,GPT 4存在30%40%的错误率,国内大模型整体上也存在60%70%的错误率,要想让AI从一个辅助人类的工具到能独立完成工作,为社会创造更大的价值,最核心的一点是整体降低大模型的错误率。

大模型技术的发展似乎陷入了一个恶性循环的怪圈,大模型的性能提升需要大量使用后的数据投喂,但大模型的错误率又让人们不敢大规模使用。如何破局?

业内还发现一个现象,将大模型缩小规模至特定的专业领域,Scaling Law依然在发挥价值,向专业大模型投喂专业知识库,模型依旧呈现能力的巨大提升。比如多模态领域近一年来进展便神速,在今年WAIC现场,商汤展示了可控人物视频生成大模型Vimi,可将静态图片生成1分钟唯美视频;支付宝也发布了多模态医疗大模型,并将与20家机构联合发起AI医疗共建计划。

图片

Vimi 使用情深深雨濛濛视频片段作为控制生成的长视频

到今天为止,大模型并不是越大越好,也不是只有将性能力发展到惊艳才能使用。如果缩小规模,放至特定的场景使用,也可以实现数据规模与性能提升的良性循环。

回顾大模型的发展不过两年时间,已掀起了三次浪潮,且越来越锁定特定场景。

第一波浪潮, 是OpenAI训练的大语言模型的横空出世,带给人类的震撼是,机器可以跟人用自然语言对话,拥有人的逻辑思考、推理、总结、规划以及多模态生成能力,中国厂商随后全面跟进,也生长出多个大语言模型创业公司。这一波的应用以聊天对话框的方式

;