本报记者 王丽新 见习记者 梁傲男
7月20日,在中国互联网大会上,AI安全论坛引起与会者的广泛关注。随着人工智能产业呈现蓬勃发展势头,AI浪潮席卷而来,其在安全领域的应用或将带来一系列颠覆性改变。
“随着AI技术的快速发展和规模化落地,数据安全和因素保护等问题变得更加突出,迫切需要对AI技术和服务加强规范管理。若保护措施不到位,用户隐私和数据安全就会面临滥用或泄露的风险。”天使投资人、资深人工智能专家郭涛接受《证券日报》记者采访时表示。
统筹AI发展与数据安全
近年来,以大模型为代表的新一代AI技术在飞速发展,在通信、金融、教育、医疗及工业互联网领域有广泛的应用场景。AI是新一轮科技革命和产业变革的重要驱动力量,AI发展事关我国能否抓住新一轮变革机遇。
在深刻改变经济社会、广泛赋能各行业的同时,AI也带来了全新的安全挑战。探寻AI下的安全新变局,探索数字安全建设发展新机遇,则成为AI技术蓬勃发展中的重要议题。
北京社科院副研究员王鹏在接受《证券日报》记者采访时表示,AI由算法、算力、数据三部分构成,数据本身就是AI发展的重要要素。AI想要发挥其效能,定然离不开数据。数据安全是数字经济时代的重要组成部分,与行业发展、技术进步息息相关,重要性日益凸显。
“数据中若包含有害或敏感信息,实际应用中可能会导致数据隐私泄露、违规信息生成等安全风险,真实性与合法性是AI应用中不可逃避的监管难题。“北京市通信管理局党组成员、副局长王晖指出,目前各行各业AI发展程度不尽相同,对AI技术的安全监管能力参差不齐。有的行业已经形成了规模化应用,但仍有行业处于信息化转型时期。
积极应对AI风险
近日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称“办法”),明确了促进生成式人工智能技术发展的具体措施,涵盖了技术发展与治理、服务规范、监督检查和法律责任等方面,将于8月15日起实施。
在监管方式层面,《办法》提出,对生成式人工智能服务实行包容审慎和分类分级监管,要求国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。
在郭涛看来,AI安全领域仍存在缺乏多部门协同的监管体系、监管技术手段落后等突出问题,应尽快建立健全相关体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台,推动AI产业健康可持续发展。
此外,AI行业保护用户隐私和数据安全需多方面协同发力。郭涛指出,AI技术企业需遵循严格的隐私数据保护的相关法律法规,采取相应技术手段来确保数据的安全性、完整性和机密性,如匿名化、去标识化等技术,保护用户因素和数据安全。更应提高数据利用的透明度,向用户解释收集和使用数据的方法及原因。
中国互联网协会副理事长黄澄清指出,国务院出台《新一代人工智能发展规划》明确将人工智能作为国家战略,工信部等部委紧跟着出台文件落实。这一系列政策文件的出台,为AI发展提供了更多的制度保障。随着大模型带来的产业发展变革,AI在技术创新、产业生态融合应用等方面都将取得积极进展。
(编辑 袁元)