随着人工智能技术的迅猛发展,AI在信息传播领域的应用日益广泛,然而,AI生成的虚假信息也呈现出泛滥的趋势,成为信息传播领域面临的一大新挑战
。
全国政协委员、四川大学华西医院教授甘华田在2025年全国两会期间拟提出加强对AI生成虚假信息治理的建议
。甘华田指出,近年来通过AI技术深度伪造视频、政府公告、企业声明、名人言论、虚假金融信息等行为,已严重干扰了公众的判断,损害了社会的公信力和稳定
。这类虚假信息不仅误导消费者,还可能对社会秩序、国家安全甚至人民群众的生命财产安全构成威胁
。然而,我国现行法律对AI生成内容的监管责任界定模糊,相关法律滞后,平台审核技术能力不足,违法成本低,治理难度大
。
对此,甘华田提出了多项建议
。首先是完善AI生成内容监管法律法规体系,推动专项立法,加快制定针对AI生成虚假信息的专项法律法规,明确AI生成内容的“全生命周期”责任,包括开发者、使用者和运营者的法律责任和义务,细化法律责任,对于故意利用AI进行造谣的行为要依法严厉惩处,提高违法成本,修订和完善现有的信息传播相关法律法规,将AI生成的虚假信息纳入监管范围,确保法律法规的适用性和前瞻性。
其次,要加强技术监管与防范,研发更加先进的人工智能算法,提高其对信息的识别和判断能力,通过不断优化算法模型,使其能够更有效地区分真实信息和虚假信息,减少造谣的可能性,引入多模态信息融合技术,综合考虑文本、图像、音频等多种信息源,提高对信息的全面理解和判断,建立严格的数据筛选和审核机制,确保输入AI系统的数据真实可靠,在数据采集阶段,对数据源进行严格筛选,只选取权威、可信的信息渠道,利用区块链技术确保数据的可追溯性和不可篡改性,将数据的来源、处理过程等信息记录在区块链上,一旦发现虚假信息,可以快速追溯到源头,追究相关责任。
第三是建立健全监管机制,设立专门的监管机构,负责对AI产品和服务进行审查和监督,确保其符合法律法规和道德规范,加强对AI企业的日常监管,定期进行检查和评估,及时发现和纠正问题,推动建立AI行业自律组织,制定行业规范和道德准则,引导企业加强自我约束,共同维护行业的良好秩序。
此外,甘华田还建议提高公众素养与法律意识,推动社会共治,加强对公众的媒介素养教育,提高公众对虚假信息的识别和判断能力,培养公众的批判性思维能力,让公众学会从多个角度分析和评估信息的真实性,开展法律知识普及活动,提高公众对AI造谣行为的法律认识,鼓励公众积极举报AI虚假信息线索
。
甘华田强调,加强对AI生成虚假信息的治理和打击力度,已成为当前亟待解决的问题
。专项立法的推进,将为AI虚假信息治理筑牢法治防线,为维护社会秩序、保障公民权益、促进人工智能技术的健康发展提供坚实的法律保障
。