新华社北京5月2日电 特稿|落地应用、网络安全和治理挑战——从三个关键词看4月全球AI领域发展
新华社记者张莹
从北京亦庄人形机器人半程马拉松“选手”超越人类纪录,到汉诺威工业博览会上参展人工智能(AI)应用和机器人“各显身手”,AI技术在4月清晰展现出加速落地应用的趋势。这个月还有多款大模型发布,其中“克劳德神话”模型据称能自主识别并利用网络安全漏洞,引发监管关注和行业震动。另外,AI应用的不断推出和业态的持续演化对治理提出更多新挑战。
落地应用加速迈向“能干活”
随着技术迭代和产业升级,AI应用正加速驱动各行业深层变革。在今年汉诺威工博会上,许多参展商带来了AI在安装、搬运、检测等真实生产场景中的应用案例,为提升生产效率和优化资源配置提供了新选项。主办方德意志会展公司董事会主席约亨·科克勒认为,AI正成为与自动化、数字化等并列的工业基础技术,推动新一轮产业转型升级。
具身智能是AI向“能干活”进化的一种主要形态。今年汉诺威工博会首次设立人形机器人专区,集中展示相关领域最新成果。多家中国企业带来的不同形态、功能各异的人形机器人,成为现场关注焦点。
从垂直领域来看,医疗产业是AI应用热点方向之一,医药研发赛道吸引越来越多科技企业入局,融入AI技术的新一代科研基础设施正在全面重塑药物研发的传统范式。近期,美国开放人工智能研究中心(OpenAI)推出专为生命科学研究打造的前沿推理模型GPT-Rosalind,旨在提升药物研发各个环节的效率;亚马逊云科技公司发布AI应用“Amazon Bio Discovery”,可为研究人员设计和测试新药提供支持。
在北京亦庄人形机器人半程马拉松比赛上,夺冠的中国机器人“闪电”的成绩比人类半马世界纪录快了近7分钟,体现人形机器人在极限场景下的任务执行能力,其背后是AI、工业制造、通信应用、材料研发等技术领域的不断协同进化。随着应用场景不断拓展,中国人形机器人已经成为中国硬科技的一张新名片。
AI网络攻防能力升级引关切
4月,多款大模型“上新”,包括谷歌新一代开源模型Gemma 4、美国AI企业Anthropic的“克劳德神话”、元宇宙平台公司旗下“超级智能实验室”的首款模型Muse Spark等。
其中,“克劳德神话”在AI网络安全领域引发持续关注乃至担忧,美英等国监管机构紧急向金融等行业提示相关风险。据介绍,“克劳德神话”能够自主识别并利用主要操作系统和网络浏览器中可立即用于攻击的“零日漏洞”,串联多个漏洞构建攻击手段,并实现突破运行限制范围的“沙箱逃逸”。开放人工智能研究中心也于4月推出了迭代模型GPT-5.4-Cyber,宣称能够帮助安全专业人员评估潜在恶意软件风险和漏洞。
有业内观点认为,“克劳德神话”等具有较强网络攻防能力的模型表明,AI能力已经跨过一个门槛,正在从根本上改变网络安全攻防格局,极大提升了保护关键基础设施免受网络威胁的紧迫程度。英国一项评估显示,前沿模型能力翻倍的周期已从8个月缩短至4个月。
值得注意的是,“克劳德神话”和GPT-5.4-Cyber都以“安全风险过高”为由,仅向少数合作伙伴或经过审查的安全供应商、机构和研究人员有限开放。有观点认为,这背后可能潜藏利益考量,旨在争夺有关AI技术研发和安全标准制定的话语权。须警惕前沿大模型领域演变成由“少数实验室、特定政府机构和战略合作伙伴组成的小圈子”。
新应用提出治理新挑战
4月,一个名为“同事.skill”的项目在开源技术社区GitHub上爆火。其功能是通过聊天记录、工作邮件、文档等原始材料,再加几句主观描述,生成一个可以代替离职同事的“AI分身”。网友将这一过程戏称为“炼化”。
该项目引发关于AI时代个人数据保护、责任主体界定等问题的讨论。有观点认为,“炼化同事”不仅可能构成对员工个人智力成果的侵权,还存在侵犯隐私权的风险。而且,一旦“AI分身”在工作中犯错,现有法律尚无法清晰界定责任主体。
近来还有“开放之爪”等智能体被广泛应用。清华大学新闻与传播学院教授陈昌凤接受新华社记者采访表示,以“开放之爪”为代表的智能体已不再只是被动执行指令的工具,而是能够自主拆解任务、调用工具并协调流程的“行动参与者”。一旦执行中出现偏差或错误,责任往往不是来自单点失灵,而是由模型、工具、平台及相关参与主体共同构成的链条所导致。这种多主体协同的结构对传统的责任归属框架提出挑战。
AI正在深刻改变世界。AI技术迅猛发展并催生大量全新应用,在赋能各行业的同时,相关的安全、监管及社会影响等问题日益突出。当前AI治理的一个核心问题在于尽快厘清人机协作的权责边界,以确保AI真正服务于人、造福社会。
(责任编辑:王炬鹏)