本报记者 寇佳丽
12月10日至11日举行的中央经济工作会议将“深化拓展‘人工智能+’,完善人工智能治理”作为明年要抓好的重点任务之一。去年12月份举行的中央经济工作会议提出“开展‘人工智能+’行动”。
从“开展”到“深化拓展”,两场会议对“人工智能+”的提法、指向皆有所延伸。
中央财经大学数字经济融合创新发展中心主任陈端对《证券日报》记者表示,这种改变意味着我国“人工智能+”行动即将进入新阶段,人工智能技术对各行各业的渗透率会进一步提高,AI技术与产业升级、消费提振的联系将更加密切,以助力经济社会发展打开更多新空间。
政策利好显成效
“人工智能+”行动的开展贯穿2025年始终。今年的《政府工作报告》提出,“持续推进‘人工智能+’行动,将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用”;7月31日召开的国务院常务会议数次提及人工智能,指出“要深入实施‘人工智能+’行动,大力推进人工智能规模化商业化应用”;8月26日,国务院发布《关于深入实施“人工智能+”行动的意见》。
浙江、陕西、广东等多地亦积极部署相关工作。例如,10月份,广东省人民政府办公厅发布了《广东省人工智能赋能制造业高质量发展行动方案(2025—2027年)》。
在政策利好的加持下,“人工智能+”行动已取得显著成效:人工智能企业数量显著增长,全球占比大幅提升;智能工厂规模可观,在线智能检测、智能排产调度等优秀场景不断涌现;AI眼镜、AI玩具、AI耳机等智能终端产品越来越受大众喜爱,助力培育消费新增长点。
深度科技研究院院长张孝荣在接受《证券日报》记者采访时表示,当前,我国“人工智能+”行动广泛开展,呈现出政策引领、场景驱动、产业协同创新等特点。伴随AI技术与制造、医疗、教育等行业规模化、深层次融合的推进,“人工智能+”行动将收获更多成果,从而带动智能经济核心产业规模快速增长。
多举措强化治理能力
人工智能在给我国经济社会发展带来巨大机遇的同时也带来了风险和挑战。具体看,AI技术或产品在研发、训练、测试、使用等各环节都面临安全风险,这些风险可能来源于自身技术缺陷,也可能来源于不当使用、滥用甚至恶意利用等。
“人工智能+”行动的深入开展,离不开对风险的防范与治理。9月15日,在2025年国家网络安全宣传周主论坛上,《人工智能安全治理框架》2.0版(以下简称《框架》2.0版)正式发布。《框架》2.0版在《人工智能安全治理框架》1.0版基础上,结合人工智能技术发展和应用实践,持续跟踪风险变化,完善优化风险分类,研究探索风险分级,动态调整更新防范治理措施。
此外,现行有效的《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》等法律规范的部分条款,也涉及人工智能治理,与《框架》2.0版共同构成人工智能治理的制度保障。
中国电子商务专家服务中心副主任郭涛对《证券日报》记者表示,现有人工智能治理体系有效化解了部分风险,但其并未覆盖包含AI技术的所有应用场景,自动驾驶汽车事故责任认定、人工智能生成内容版权归属等问题仍有待进一步厘清。
郭涛分析称,强化人工智能治理能力、建设高水平治理体系,各方要同时从前置治理、技术防御、社会调节三个角度入手,建立全国统一的人工智能风险监测平台,对高风险主体实施分级分类精准监管;采用同态加密、区块链存证等技术保障数据安全,开发自适应防御系统,实时检测并阻断针对AI大模型的攻击行为;向大众普及AI知识,引导公众参与AI问题决策,设立补偿基金以便在必要情况下提供补偿、赔偿。