当前,以大模型为代表的人工智能技术正加速重塑人类社会。据工业和信息化部公布的数据显示,截至2024年9月底,我国人工智能核心产业规模接近6000亿元,相关企业超过4500家。但与此同时,伴随着技术的突破,AI生成内容的真实性、伦理风险等问题日渐凸显。
日前,科技领域的代表们围绕AI治理、技术规范与伦理风险防范提出了一系列针对性的建议。
包容创新与安全监管并重
360集团创始人周鸿祎关注大模型安全和幻觉,他指出,大模型存在“幻觉”,偶尔会生成看似不合理、与事实不符的情况。“幻觉”是一把双刃剑,是大模型与生俱来的特点,不可消除,也决定其创造力和想象力,对于实现AGI(通用人工智能)极其重要。如果大模型没有“幻觉”,就失去了想象力和创造力。并且越是能力强的模型,一般幻觉也越多。
他建议,借鉴“避风港原则”成功经验,对大模型以及相关的产品和服务实施柔性监管,适度包容大模型的“幻觉”,对于“幻觉”导致的一般性失误,避免直接关停下架,给予企业自我纠正的机会,促进企业大胆创新、放手竞争,争取让更多企业“复制”DeepSeek的成功。
破解大模型“幻觉”难题
科大讯飞董事长刘庆峰也针对大模型幻觉提出了建议。他指出,应预防大模型生成“幻觉数据”充斥互联网带来的危害,从技术研发和管理机制上构建可信的信息环境。为此,他提出两点建议:一是构建安全可信数据标签体系,提升内容可靠性;二是研发AIGC幻觉治理技术和平台,定期清理幻觉数据。
加强AI深度伪造欺诈管理
TCL创始人兼董事长李东生建议从四个方面采取措施,加强AI深度伪造欺诈管理:一是加快人工智能深度合成内容标识管理规章制度的出台,确保所有AI生成内容能被清晰识别;二是明确人工智能深度合成服务商的责任,若未履行标识义务,应承担相应处罚;三是推动AI深度合成标识技术标准的制定,从源头管理风险;四是加强国际合作,共同建立AI治理框架,形成全球有效监管体系。
整治AI换脸侵权
小米集团创始人、董事长兼CEO雷军建议,加强“AI换脸拟声”违法侵权重灾区治理:一是针对“AI换脸拟声”等某一代表性问题,探索推出人工智能单行法,提高立法位阶及其效力,分级分类的基础上进行务实治理,明确“AI换脸拟声”应用边界红线,完善侵权证据规则,加大对利用人工智能技术实施犯罪行为的刑事处罚力度。二是强化行业自律共治,压实平台等各方的责任。支持平台企业开发可精准识别人工智能深度合成内容的技术能力,优化升级通信软件和内容平台巡查审核机制、投诉举报机制、应急处理机制,确保及时阻断问题内容传播。三是建议加强人工智能方面的法制宣传教育,增强民众的警惕性和鉴别力,聚焦重点人群,在中小学人工智能教材中加入伦理规范内容,深入老年人聚居的社区开展相关知识普及活动,在全社会夯实“以人为本、智能向善”的人工智能发展生态。
写在最后:
从包容审慎到动态治理,从技术防控到伦理建构,科技大佬们的建言共同勾勒出AI治理的新范式。随着《人工智能法》立法进程的加快,将构建起更加完善的法律法规体系,以适应快速发展的AI技术,并为AI产业提供明确的行为准则和发展方向。