今年全国两会期间,全国人大代表、中国工程院院士张伯礼高度关注网络空间治理与人工智能(AI)健康发展问题,针对网络造谣、AI技术滥用等乱象,提出多项针对性建议,他呼吁通过完善监管体系、强化法律保障、凝聚共治合力,筑牢网络安全防线,让互联网与人工智能更好服务社会发展、守护公众权益。
当前,互联网已成为信息传播主渠道,网络造谣、恶意碰瓷等行为时有发生,部分账号和人员为博取流量、谋取利益,编造传播虚假信息,侵害他人权益、扰乱社会秩序、浪费公共资源,造成诸多危害。
与此同时,人工智能技术快速发展,在带来便利的同时,滥用问题也日益突出。张伯礼在接受《经济参考报》记者采访时表示,自己也曾遭遇AI技术滥用的侵害,网络上出现大量利用AI合成其形象和声音的虚假带货视频,误导消费者。“目前,不法分子利用AI合成虚假音视频,进行虚假宣传甚至诈骗的现象屡见不鲜,若AI技术进一步失控,还将带来更大安全隐患。”他说。
近年来,尽管我国已出台网络安全、数据安全等相关法律法规及AI伦理管理规范,但AI全生命周期治理仍存在诸多待完善之处,规范其发展、降低技术风险迫在眉睫。
针对网络造谣碰瓷乱象,张伯礼提出专项整顿治理建议。他呼吁,多部门联合成立工作专班,建立快速联动机制,开展专项整治行动;完善自媒体虚假造谣信息处置机制,明确管理部门与平台责任及处置流程、时间;重点关注受指使散布的虚假信息及灰色信息内容,做到早发现、早处置;进一步完善法律法规,引入惩罚性赔偿制度,对造谣账号不仅删帖封号,更要依法处罚责任主体,定期公布典型案例,提高违法成本。
在AI发展监管方面,张伯礼强调,要坚持发展与规范并重,构建全链条治理体系。为此,他建议:
一是立足长远、系统谋划,从法治、政策、标准、伦理、监管等维度协同发力,形成覆盖AI全生命周期、激励和约束并重的治理网络。
二是构建分级分类的立体化法律体系。加快推动国家层面的人工智能综合性立法,形成以人工智能法为统领,部门规章、技术标准、伦理指南相互支撑的制度体系。
三是建立刚柔并济的伦理治理与安全评估机制。科技伦理是人工智能监管的第一道防线。推动高校、科研机构、企业等责任主体普遍设立科技伦理委员会。加强对涉及国家和公众安全有影响的领域,在AI使用中严格管理,实施多重密钥限制,确保国家和公众安全。
四是强化全流程追溯与追责能力。全面推行人工智能生成内容标识制度,标注生成来源、时间及版权归属,确保生成可识别、侵权可追踪。加快出台人工智能侵权的认定标准和赔偿细则。建立侵权快速响应机制,形成社会共治合力。
“清朗网络空间、规范AI发展,事关群众利益、社会稳定和国家安全。通过严格监管、完善制度、协同治理,能够有效遏制网络违法违规行为,引导人工智能安全有序发展,更好服务社会、造福群众。”张伯礼说。

