这五类信息绝不能透露给AI聊天机器人

译文
人工智能
与聊天机器人对话可能让人觉得有一种亲密感,但您其实是将每个单词泄露给了一家私营公司。

译者 | 布加迪

审校 | 重楼

人工智能聊天机器人的人气急剧上升。虽然它们的功能令人印象深刻,但有必要承认聊天机器人并非完美无瑕。使用AI聊天机器人存在一些固有的风险,比如隐私问题和潜在的网络攻击。与聊天机器人进行交互时保持谨慎至关重要。

不妨探讨一下与AI聊天机器人共享信息带来的潜在危险,看看哪些类型的信息不应该透露给它们。

使用AI聊天机器人面临的风险

与AI聊天机器人相关的隐私风险和漏洞给用户带来了重大的安全问题。您的聊天伙伴(比如ChatGPT、Bard、Bing AI及其他聊天机器人)可能无意中在网上暴露您的个人信息,这可能会让您感到惊讶。这些聊天机器人依赖AI语言模型,这些模型又从您的数据中获得洞察力。

比如说,当前版本的谷歌聊天机器人Bard在其常见问题解答(FAQ)页面上明确表示,它收集并利用对话数据来训练其模型。同样,ChatGPT也存在隐私问题,因为它可以保留聊天记录用于改进模型。但它为用户提供了选择退出的选项。

由于AI聊天机器人将数据存储在服务器上,它们很容易受到黑客攻击。这些服务器储存有大量的信息,网络犯罪分子可以运用各种方式利用这些信息。他们可以潜入服务器,窃取数据,然后拿到暗网市场上出售。此外,黑客还可以利用这些数据破解密码,并获得对您设备的未授权访问。

此外,您与AI聊天机器人进行交互所产生的数据不仅限于相应的公司。虽然它们坚持认为这些数据不是为了广告或营销目的而出售的,但出于系统维护需求,这些数据会与某些第三方共享。

ChatGPT背后的组织OpenAI承认,自己与“一小批可信赖的服务提供商”共享数据,一些“已获得授权的OpenAI人员”可能有权访问这些数据。这些做法进一步引发了人们对AI聊天机器人交互的安全担忧,批评人士认为,生成式AI的安全问题可能会加剧。

因此,保护个人信息避免透露给AI聊天机器人对于保护您的隐私而言至关重要。

与AI聊天机器人有什么不能分享?

为了确保您的隐私和安全,在与AI聊天机器人进行交互时,遵循以下五个最佳实践极为重要。

1. 财务资料

网络犯罪分子会使用ChatGPT这样的AI聊天机器人闯入您的银行账户吗?随着AI聊天机器人的广泛使用,许多用户已经转向这些语言模型来寻求财务建议和管理个人财务。虽然它们可以提高金融素养,但了解与AI聊天机器人分享财务资料所带来的潜在危险却至关重要。

将聊天机器人用作财务顾问时,您可能会将自己的财务信息暴露给潜在的网络犯罪分子,他们可能会利用这些信息来盗取账户中的钱财。尽管许多公司声称对会话数据进行了匿名处理,但第三方和一些员工可能仍然可以访问这些数据。这就让人担心信息分析活动:您的财务信息可能被用于恶意目的,比如从事勒索软件活动或卖给营销机构。

为了保护您的财务信息不被AI聊天机器人获取,您必须注意自己泄露给这些生成式AI模型的内容。互动仅限于获取一般的信息和提出宽泛的问题是明智之举。如果您需要个性化的理财建议,可能有比完全依赖AI聊天机器人更好的选择。AI聊天机器人可能会提供不准确或误导性的信息,因而可能让您的血汗钱打水漂。相反,应考虑向持有执照的财务顾问寻求建议,他们可以提供可靠且量身定制的指导。

2. 您个人的内心想法

许多用户转向AI聊天机器人寻求治疗,却没有意识到这对他们的心理健康可能产生的后果。了解向这些聊天机器人泄露个人内心想法的危险至关重要。

首先,聊天机器人缺乏现实世界的知识,只能对与心理健康相关的问题提供宽泛的回答。这意味着它们建议的药物或治疗方法可能不适合您的具体需求,可能会损害您的健康。

此外,向AI聊天机器人透露个人想法引发了严重的隐私问题。您的隐私可能会因而受到损害,私密的想法可能会泄露到网上。不怀好意的人可能会利用这些信息来监视您,或者在暗网上出售您的数据。因此,在与AI聊天机器人进行交互时要注意保护个人想法的隐私。

将AI聊天机器人视作提供一般信息和支持的工具,而不是专业治疗的替代品。如果您需要心理健康建议或治疗,咨询合格的心理健康专家始终是可取的。他们可以提供个性化的可靠指导,同时又注重您的隐私和幸福。

3. 工作场所的机密信息

用户在与AI聊天机器人进行交互时必须避免的另一个错误是分享机密的工作信息。即使是苹果、三星、摩根大通、Bard的开发者,谷歌等知名科技巨头也限制员工们在工作场所使用AI聊天机器人。

彭博社的一篇报道曾强调了三星员工将ChatGPT用于编程目的,结果无意中将敏感代码上传到了生成式AI平台的案例。这起事件导致了三星的机密信息未经授权泄露出去,促使该公司禁止使用AI聊天机器人。作为寻求AI帮助以解决编程问题的开发人员,这就是为什么您不应该将机密信息交给像ChatGPT这样的人工智能聊天机器人来处理的原因。在共享敏感代码或工作相关细节时,必须谨慎行事。

同样,许多员工依靠AI聊天机器人来总结会议纪要或自动处理重复性任务,这可能会无意中暴露敏感数据。因此,保持机密工作信息的隐私性,避免与AI聊天机器人共享是至关重要的。

用户可以通过注意与共享工作相关的数据有关的风险来保护其敏感信息,并保护其组织免受无意的泄漏或数据泄露。

4. 密码

有必要强调的是,在网上分享您的密码、即使是分享给语言模型,也是绝对不允许的。这些模型将您的数据存储在公共服务器上,向它们泄露您的密码会危及您的隐私。一旦服务器受到攻击,黑客就可以访问并利用您的密码,造成经济损失。

2022年5月发生了一起涉及ChatGPT的重大数据泄露事件,引发了人们对聊天机器人平台安全性的严重担忧。此外,由于欧盟的《通用数据保护条例》(GDPR),ChatGPT在意大利被禁止。意大利监管机构认为这款AI聊天机器人不符合隐私法,突显了该平台上数据泄露的风险。因此,保护您的登录凭据、以免泄露给AI聊天机器人变得至关重要。

通过避免与这些聊天机器人模型分享您的密码,您可以主动保护自己的个人信息,减小成为网络威胁受害者的可能性。请记住,保护您的登录凭据是确保在线隐私和安全的一个重要步骤。

5. 住宅资料及其他个人资料

避免与AI聊天机器人共享个人身份信息(PII)非常重要。PII包含可用于识别或定位您的敏感数据,包括您的位置、社会保险号、出生日期和健康信息。在与AI聊天机器人进行交互时,确保个人和住宅资料的隐私应该是重中之重。

为了在与AI聊天机器人进行交互时保护您的个人数据隐私,以下是几个值得遵循的关键做法:

  • 熟悉聊天机器人的隐私政策,以了解相关风险。
  • 避免问一些可能无意中暴露您身份或个人信息的问题。
  • 要谨慎行事,尽量不要与AI机器人分享您的医疗信息。
  • 在SnapChat等社交平台上使用AI聊天机器人时,应注意您数据的潜在漏洞。

避免与AI聊天机器人分享过多的信息

综上所述,AI聊天机器人技术在取得重大进步的同时,它也带来了严重的隐私风险。在与AI聊天机器人进行交互时,通过控制共享的信息来保护自己的数据至关重要。应保持警惕,并遵守最佳实践,以减小潜在风险并确保隐私。

原文标题:5 Things You Must Not Share With AI Chatbots,作者:WASAY ALI

责任编辑:华轩 来源: 5CTO
相关推荐

2019-10-14 17:08:04

人工智能机器人Facebook

2024-11-01 07:30:00

2022-07-05 06:42:01

聊天机器人人工智能

2023-05-02 22:34:21

聊天机器人人工智能

2019-03-22 09:00:00

AI人工智能聊天机器人

2021-05-24 15:29:24

人工智能机器人聊天

2023-02-28 07:59:19

OpenAI聊天机器人

2023-09-28 20:57:23

Meta人工智能聊天机器人

2020-12-02 13:00:17

Recast.AI聊天机器人人工智能

2023-03-29 13:07:34

微软网络安全聊天机器人

2023-04-28 16:56:26

2023-03-07 07:52:47

ChatGPT人工智能

2023-02-15 14:33:26

2020-08-14 16:18:30

人工智能

2024-09-30 13:11:09

2022-07-03 10:23:06

机器人场景个性化

2020-02-02 09:19:14

聊天机器人机器人智能

2019-12-19 16:08:40

人工智能机器人数据

2023-06-29 15:04:21

微软ChatGPT
点赞
收藏

51CTO技术栈公众号