AI的五个真正危险

人工智能
AI的真正危险不是像SkyNet这样的有感觉的算法接管世界。 即使这种情况完全是科幻小说,也存在一些合理的问题。 不要惧怕技术,我们应该仔细识别它们并负责解决它们。 在这篇文章中,我将收集五个特别重要的领域,这些领域已经每天影响着我们的生活。

假冒,算法偏见和其他问题如何影响我们的日常生活

在过去的几年中,人工智能以惊人的速度提升了我们的技术。 从完全自动化的劳动密集型工作到诊断肺癌,人工智能已经实现了以前认为不可能的壮举。 但是,如果使用不当,算法可能是破坏性武器。 为确保恶意行为者不会对我们的社会造成破坏,我们必须解决几个关键挑战。

[[323182]]
Source: Skitterphoto via Pexels

 

AI的真正危险不是像SkyNet这样的有感觉的算法接管世界。 即使这种情况完全是科幻小说,也存在一些合理的问题。 不要惧怕技术,我们应该仔细识别它们并负责解决它们。 在这篇文章中,我将收集五个特别重要的领域,这些领域已经每天影响着我们的生活。

1. Deepfake

在我们的现代社会中,信息是无限的。 通过打开浏览器并浏览网络半小时,您遇到的信息比中世纪一生中遇到的普通人要多。 信息就是力量。 您会立即收到有关地球另一端发生的事件的通知,但有一个陷阱:您如何知道该相信什么以及哪些来源可信?

在下面观看此视频。

当然,这完全是假的,但是对于一个随意的观察者来说,可能很难检测到。 这些称为"深度伪造",起源于技术术语"深度学习",是一类算法,能够生成像这样的逼真的伪造图像。 尽管这一特定行为只是该技术的精心展示,但如果新闻源中出现的伪造品比例达到一定阈值,它们就会变得非常危险。 在这种情况下,将不可能检测到哪些信息是真实的,哪些不是。

毫不奇怪,打击深层假货的一种非常有前途的工具是AI本身。 DARPA的MediFor计划或Google的Deepfake检测挑战赛等多项引人注目的计划旨在开发出过滤错误信息的方法。

尽管在我们的生活中不存在深层的假货,但肯定是最具破坏力的假货之一。

2.算法偏差

如果您过去几年曾申请过工作,那么您可能受到了算法偏见的影响,无论是正面的还是负面的。 开发基于AI的算法以筛选求职申请的候选人可能是一个好主意,但是,这存在很多问题。 机器学习需要历史数据来了解哪些候选人值得招聘。 问题在于,过去接受和拒绝的数据受到人类固有的偏见的严重影响,这些偏见主要针对妇女和代表性不足的少数民族。 该算法只是从呈现的内容中学习,并且如果以前的招聘做法具有区别性(通常是这种情况),则该算法的行为将类似。

最好的健身教育网络游戏的生存就是这种现象的绝佳发人深省的例证,值得一试。

此问题影响许多其他应用程序领域,例如信用评分估算,执法等。由于这些因素在涉及人员的生活中产生了巨大影响,因此除非我们可以保证公平性,否则这些决策不应涉及算法。 为此,人们产生了一个新的,非常活跃的研究领域。 除了确保预测不受变量(如性别,种族和受负面偏见影响的相似变量)的独立性之外,关键是要生成不存在这些变量的数据。 为了解决这个问题,需要付出更大的努力。 要从数据中完全消除偏见,我们还需要消除思维中的偏见,因为最终,数据是我们行动的结果。

3.群众监督

那些放弃基本的自由以购买一点临时安全的人,既不应该自由也不应该安全。 - 本杰明·富兰克林

几十年来,面部识别一直是计算机视觉中的关键问题。 但是,自从深度学习革命以来,我们不仅可以更准确地识别人脸,而且还可以立即做到。 如果您的智能手机随处可见,请尝试打开相机应用程序并进行自拍照:它将立即在您的脸部周围放置一个边界框,表明已成功检测到它。 如果您拥有最新的iPhone,甚至可以用脸作为手机密码。

如果将本技术用于错误的目的,则会有其自身的危险。 在中国,它被用于前所未有的大规模监视。 结合最近引入的社会信用系统,您可以对自己的行为进行评分,并且可以通过例如乱穿马路或仅仅参加某些活动来得分,没有什么可以隐藏在天空中。

4.推荐引擎

每次您打开YouTube,Facebook或任何其他社交媒体网站时,他们的目标都是尽可能让您参与其中。 简而言之,在这种情况下,您就是产品:如果偶尔观看广告,则可以免费使用该网站。 因此,目的不是要为用户提供高质量的内容,而是要使他们无限地滚动和自动播放。

鉴于人脑的进化方式,不幸的是,互动是由强烈的情感反应驱动的。 事实证明,例如政治激进的内容特别适合于此。 推荐引擎不仅学会了呈现极端的内容,而且还使每个用户慢慢变得激进,一旦用户的喜好发生变化,它的工作就变得容易。 这被称为激化管道。

有具体的科学依据。 例如,最近的一篇论文研究了YouTube上特定用户的数百万条评论,以显示他们如何逐渐迁移到极端激进的内容。

其影响是如此严重,以至于可以对民主选举产生重大影响。 在2016年美国大选期间,《华尔街日报》对此主题进行了广泛调查。 他们的发现可以在这里找到:蓝色饲料,红色饲料。 从本质上讲,用户有意识地陷入了知识泡沫,从不质疑自己对外部世界的看法。 思考困难,内脏反应容易。

5.隐私权和有针对性的广告

您是否曾经发现自己购买了不需要的东西,之后又后悔呢? 也许进入一家超市,进入收银台时,一捆糖果就引起了您的注意,毫不犹豫地将它们放到了篮子里。 您并不是真的需要它,但是您还是买了它。 这可能使您感到惊讶,但是整个方案都是经过精心设计的,因此您被操纵去执行此操作。 听起来很奇怪,购物实际上需要您的智力资源,这些资源最终将耗尽。 用更少的资源来控制自己的欲望,您更有可能冲动地购买自己知道对自己不利的东西(例如糖果),但无论如何都想要。 但这与AI有什么关系?

超市是通过考虑上述基本心理原理而设计的。 这些设计原则适用于平均水平。 任何设计都无法为其每个用户提供个性化且完美简化的体验。 但是,当市场转移到网上时,情况发生了变化。 虚拟市场不仅可以为您提供量身定制的购物之旅,还可以收集非常具体的数据。 根据您的浏览习惯和社交网络,可以高度准确地预测您的行为。

这有几种潜在的误用。 首先是向您展示您可能会在在线市场上购买的商品。 统计算法确定向您呈现的商品的种类,位置和方式,以最大程度地从您那里获取利润。 但是,这会影响个人规模。 一个更大的问题是,何时使用个人数据通过政治广告来定位您,从而可能影响民主选举的结果。 这正是Cambridge Analytica所做的,其效果在全球范围内仍可感受到。

结论

近年来,基于人工智能的技术无疑改变了我们的生活。 尽管它正在慢慢渗透到我们周围的所有事物中,但其大多数媒体表现都是有偏差的。 无论是通过粉红色的炒作迷雾还是通过天网的可怕异象消灭人类。 他们都不是真实的。 但是,为了确保其应用程序安全,我们必须清楚地看到AI可能带来的实际问题。 这些问题并不神秘,它们已经存在于我们的生活中。 通过适当的认识,准备和社区努力,可以解决这些问题。

责任编辑:未丽燕 来源: 今日头条
相关推荐

2020-04-22 10:27:39

人工智能技术安全

2024-01-11 12:17:28

Linux系统命令

2012-10-18 09:58:09

2024-01-04 18:27:04

AI人工智能GenAI

2021-09-02 09:44:51

AI人工智能

2015-11-03 13:36:09

2022-07-18 13:37:10

网络安全数据泄露

2023-12-27 17:20:09

2023-04-28 15:22:53

2021-06-23 06:31:05

AI人工智能

2023-05-26 10:37:17

ChatGPT人工智能

2024-07-26 08:59:33

2022-06-21 14:37:46

AI经验发展

2020-06-22 10:07:40

人工智能企业ITCIO

2024-09-20 11:30:14

2018-09-13 10:00:02

Linux命令危险命令

2017-03-20 14:37:43

Linux命令

2022-08-04 12:03:08

勒索软件勒索团伙

2023-11-14 13:39:40

2024-09-30 05:53:40

点赞
收藏

51CTO技术栈公众号