人工智能伦理的曙光

人工智能
本文将探讨如果不加控制人工智能会如何造成破坏、平等代表在人工智能创造中的重要性和教育系统的作用。

从平等代表到人工智能立法提高人工智能道德标准需要技术和新法律的平等代表,例如欧盟提议的人工智能立法道德人工智能需要付诸实践,新的立法将有助于执行这一点。

人工智能(AI)的使用激增,因为组织希望利用该技术的潜力来显着改善运营和客户体验。如果不加以控制,这种人工智能使用的增长可能是危险的。

弹劾人民的权利,影响他们的生计,甚至制造战争威胁。

[[421431]]

人工智能伦理——一套价值观、原则和技术,是公认的正确与错误标准,用于指导人工智能技术开发和使用中的道德行为——以及更高水平的技术多样性和人工智能算法的创建,代表了对未经检查的人工智能威胁的解决方案。

本文将探讨如果不加控制人工智能会如何造成破坏、平等代表在人工智能创造中的重要性和教育系统的作用、通过透明度建立信任的重要性、欧盟委员会最近的人工智能立法提案以及这对人工智能意味着什么欧盟和世界其他地区的行业,以及组织如何实施符合道德的人工智能。

人工智能歧视

人工智能在医疗保健等行业的使用正在创造巨大的、前所未有的好处,例如癌症的早期检测。但是,该技术会造成大量伤害,尤其是与歧视有关的伤害。以人工智能招聘为例,CliffordChanceTechGroup的合伙人兼联席主管JonathanKewley解释说,在某些情况下,算法会根据他们的宗教、种族、教育或地理位置解雇合格的候选人。

“问题在于,一些公司(使用人工智能招聘服务的)不了解技术是如何运作的,他们没有看到内在的偏见,这是内在的偏见。突然之间,他们遇到了一个无形的大问题,”他说。问题并不止于招聘过程。优步司机,无论是在英国还是最近在荷兰,都声称优步的算法不公平地解雇了他们。

“[这些人工智能算法]可以从根本上损害某人的生活前景、他们找到工作的能力、他们获得医疗服务的能力、他们购买产品或获得抵押贷款的能力。我认为公众还没有完全意识到这项技术中的某些内容是多么阴险,”Kewley补充道。

为了克服这种AI歧视及其对人们生活的影响,AI算法需要访问代表产品试图服务的人的正确数据集——几乎在所有情况下,每个人口统计数据都应该被代表以消除AI偏见。平等代表权和教育障碍从根本上说,人工智能算法是由人类构建的。技术是社会的创造,它需要代表整个社会。

问题在于,绝大多数学习STEM科目然后设计AI算法的人都来自特定的人群;白人,中产阶级男性。技术的多样性严重不足,不仅在性别方面,而且在少数族裔和弱势背景方面。在教育和工作场所缺乏代表性的问题得到解决之前,跨越性别、种族和社会经济背景,人工智能偏见和歧视问题将继续存在。

这方面的例子很多。一个是苹果的信用卡,据称它为男性和女性提供了不同的信用额度,另一个是A-Level算法崩溃,它根据学生的位置给他们评分。有一些举措可以帮助纠正平衡。例如,CliffordChance与牛津大学赫特福德学院推出了一项助学金计划,以鼓励学习计算机科学的学生更加多元化。其目的是激励来自弱势群体的年轻人从事涉及技术的职业,并以此减少技术偏见和偏见的持续案例。

对此,Kewley评论说:“如果你有一群来自不同背景的多元化人士主持,并且可以代表我们社会的声音和不同观点,那么他们构建的技术就不太可能有偏见.“我们可以制定我们想要的所有法律。但实际上,我们需要从教育的基石开始,以确保我们从一开始就构建道德技术。这意味着有一群不同的人学习计算机科学,而不仅仅是享有特权的白人。”CliffordChance的高级律师HerbertSwaniker同意,在教育方面创造机会和机会至关重要。

他说:“政府在技术素养方面做了很多工作,特别是人工智能。公司的部分职责是提供有关这些技术平台如何工作的信息,以便人们更好地信任技术。但是,至关重要的是,人们希望参与其中——拥有教育接入点至关重要。”

企业人工智能指南:它适合您的企业吗?

虽然真正的人工智能还有一段路要走,但企业正在利用机器学习等智能自动化来改善业务运营、推动创新和改善客户体验。

人工智能立法

将更多多样化的人才带入技术领域将有助于解决人工智能偏见和歧视问题。但是,监管情况也必须得到批准;需要更加明确。

目前,围绕人工智能的发展和应用有一层无形的外衣。这就是欧盟制定人工智能立法提案的原因,Kewley称其为“20年来最激进的法律框架”,也是未来道德人工智能的必要“安全标准”。如果它生效,该提案将要求人工智能系统的提供者和用户遵守有关数据透明度、治理、记录保存和文档的具体规则。它还需要对高风险区域进行人工监督,并在稳健性、准确性和安全性方面制定标准。

AI供应商和用户需要满足这些要求,才能在欧盟市场上提供或投入使用。如果不遵守该立法,如果获得批准,将面临与GDPR类似的罚款,外加更高的罚款:3000万欧元或上一财政年度总年营业额的6%,以严重违规者为准。在某些情况下,这些规则也适用于欧盟以外的公司。与其他地区相比,欧盟在这项人工智能立法方面做得很大胆。相比之下,美国不会像欧盟那样对新监管采取如此激进的立场,因为他们担心这会对创新产生抑制作用。根据Kewley的说法,“美国将采取更自由的方法。他们认为现有的框架,如FTC,足以规范这一领域。”

放眼东方,可以说是世界人工智能强国,人工智能不应被用于针对、利用或伤害人类。欧盟提出的人工智能立法是最全面的。然而,这不仅仅是一个地区。需要就这个问题进行全球性的多边辩论。通过透明度信任至关重要的是,当涉及到他们的数据和人工智能的力量时,这项新法律可能有助于为公众带来一个新的启蒙时代,类似于剑桥分析公司的丑闻。对其工作保持透明的组织将有助于在他们所服务的人群中建立信任。“企业现在有机会超越这一点并拥抱透明度,而不仅仅是成为下一个合规问题,”Swaniker说。

执法Swaniker表示,正如执行GDPR所面临的挑战一样,执行拟议的人工智能立法将会很有趣。

“在最终规则到位之前,我们还有一些路要走。但很明显,整个框架是基于风险的,这将鼓励公司必须有意义地评估特定产品是否在潜意识地试图操纵人们。

“毫无疑问,这将难以执行,因此需要对概念进行锐化,以使其更适合目的,”他说。Swaniker还指出,与世界其他地区相比,该法规采用了一种非常欧洲的方法,因为该法规基于欧洲基本权利概念,这些概念基于欧盟法律,但在其他司法管辖区并不相同。他补充说,如上所述,其他国家/地区都有现行法律,无论它们如何,他们都希望公司对他们如何使用人工智能负责。

“说欧洲正在做某事而没有其他国家关心是不公平的。对于如何监管这种人工智能和技术的使用,只有不同的区域方法。”“这是关于如何使用人工智能的规定,而不是人工智能本身,这是一个重要的细微差别,因为它涉及组织实际上考虑他们使用人工智能是否具有高风险”

实施人工智能道德标准欧盟人工智能立法的主要原则之一是要求在高风险领域进行人工监督。采用和实施该技术的提供商和组织需要谨慎控制该技术的使用方式,并进行严格的审查,以确保其在继续之前是安全的。与目前的做法不同,当组织部署该技术时,他们必须对其进行检查。

在实践中,Kewley建议组织在实施人工智能道德标准时需要进行取证。

他说:“企业已经习惯了会计准则和财务审计,并围绕这些实践建立了完整的团队和方法论。它已成为他们DNA的一部分,这将是部署道德AI的最佳实施方式,这可以有效地准确了解您正在使用的内容、正在使用的环境以及结果是什么。了解产品生命周期、它是如何部署的、在哪些国家/地区以及它正在做出哪些决策也很重要。”

在未来,组织还需要部署人员团队来监督人工智能以及“机器人”的工作方式。任其发展,这项技术可能很危险,因此需要创建全新的团队和工作方式。

 

责任编辑:赵宁宁 来源: 360机房
相关推荐

2017-06-28 15:37:28

2020-12-23 15:57:42

人工智能索尼开发

2021-04-14 23:08:00

人工智能教育安全

2021-04-13 10:37:46

人工智能数据技术

2022-09-20 11:36:32

人工智能AI

2023-09-05 15:41:06

人工智能犯罪

2017-02-21 14:37:07

2022-09-24 23:49:47

人工智能自动驾驶自动化

2021-01-31 08:30:46

人工智能AI

2023-10-13 13:25:53

2020-02-04 18:27:38

人工智能伦理学一知半解

2021-08-02 10:48:05

人工智能自动驾驶机器人

2020-10-22 09:00:36

人工智能首席信息官公司

2022-06-20 11:05:58

通用人工智能机器人

2021-09-27 11:22:39

人工智能规范隐私保护

2022-06-14 11:50:44

人工智能法案机器学习

2023-10-17 10:20:23

2017-08-03 14:28:00

服务器曙光

2023-05-05 14:02:59

人工智能聊天机器人

2022-10-19 07:04:12

​人工智能云服务Alaas
点赞
收藏

51CTO技术栈公众号