合成现实
(1) 挑战
人工智能可以生成超现实的图像和视频,显示人们在做或说他们从未做过或说过的事情。这样的“深伪技术”会使虚假信息的传播更加难以察觉。
(2) 解决方案
IEEE高级会员Carmelo José AlbanezBastos Filho表示:“人工智能算法经过训练,可以识别深伪技术特有的模式和特征。这些算法分析视觉和音频特征,寻找不规则或与正常模式的偏差。”
数据泄露
(1) 挑战
你输入聊天机器人的信息可以用来训练它。这可能会导致模型泄露敏感或私人信息。
(2) 解决方案
对于聊天机器人数据隐私问题,IEEE会员汪齐齐教授指出:“将敏感数据存储在私有环境中可以有效避免数据被添加到公共的全球数据库中。”
虚假数据
(1) 挑战
有偏见、不准确或虚假的数据可能会被注入人工智能模型,从而产生错误的结果和有缺陷的系统。人工智能威胁检测技术已经在现实世界中被用来重新培训“垃圾邮件”过滤器。
(2) 解决方案
IEEE终身高级会员Raul Colcher表示:“这种形式的攻击,可以采用更加严格的数据过滤和审查机制,确保模型的学习和训练不受不当干扰。先进的过滤、监控和人工监督系统已经对其进行了反击。”
高级网络钓鱼
(1) 挑战
网络钓鱼诈骗涉及使用欺诈电子邮件诱骗人们或公司汇款或共享敏感数据。人工智能使创建更真实但仍然具有欺骗性的电子邮件和语音邮件变得更容易。
(2) 解决方案
IEEE会员Yale Fox表示:“组织可考虑投入先进的威胁检测技术,及时发现和拦截恶意尝试。这些技术利用机器学习和人工智能来识别和标记潜在的网络钓鱼企图。”
躲避系统防护
(1) 挑战
人工智能开发人员通常会创建防护栏,以防止他们的创作产生攻击性或非法内容。
(2) 解决方案
IEEE会员Rebecca Herold表示:“总有人会努力破解系统。阻止它们的最好方法是进行更严格地开发,然后全面测试大型语言模型算法。”
AI VS AI
(1) 挑战
人工智能正被用来利用或对抗其他人工智能系统——通过对抗性人工智能等技术来欺骗通常具有关键安全要求的系统。
(2) 解决方案
IEEE高级会员Amol Gulhane表示:“通过在训练过程中将模型暴露在各种攻击场景中,它将变得更加完善,能够识别和拒绝恶意输入。”