谷歌DeepMind和斯坦福大学的研究人员仅通过简单的访谈,就创建出了1000多名人员的高效AI复制品。
谷歌和斯坦福大学的研究人员表示,与AI模型进行两小时的对话,就足以相当准确地刻画出真人的性格特征。
在最近的一项研究中,研究人员基于与每位参与者进行的两小时访谈,生成了1052名“模拟主体”(即AI复制品),这些访谈遵循了美国之声项目(American Voices Project)开发的访谈协议,探讨了社会科学家感兴趣的一系列话题,包括人生故事和对当前社会问题的看法,用于训练一个旨在模仿人类行为的生成式AI模型。
为评估AI复制品的准确性,每位参与者都完成了两轮性格测试、社会调查和逻辑游戏。当AI复制品完成相同的测试时,其结果与真人参与者的答案有85%的吻合度。
在回答性格问卷时,AI克隆体的回答与真人参与者相差无几,它们在复现性格问卷答案和确定社会态度方面表现尤为出色,但在涉及经济决策的互动游戏中预测行为时,它们的准确性有所下降。
目的之问
科学家们解释说,开发模拟主体的动力在于,有可能利用它们来进行研究,而这些研究如果以真人作为对象,将会成本高昂、不切实际或有违伦理。例如,AI模型可以帮助评估公共卫生措施的有效性,或更好地理解人们对产品发布的反应。研究人员表示,甚至模拟对重大社会事件的反应也是可以想象的。
研究人员写道:“对人类态度和行为的通用模拟——每个模拟个体都能在一系列社会、政治或信息情境中互动——可以为研究人员提供一个实验室,以测试一系列干预措施和理论。”
然而,科学家们也承认,这项技术可能会被滥用。例如,模拟主体可以用于在网络上用深度伪造攻击欺骗他人。
安全专家已经看到深度伪造技术正在迅速发展,并认为网络犯罪分子找到针对企业的商业模式只是时间问题。
许多高管已经表示,他们的公司最近成为了深度伪造诈骗的目标,特别是针对财务数据的诈骗。安全公司Exabeam最近讨论了一起事件,在这起事件中,深度伪造技术被用于求职面试,这与日益猖獗的朝鲜假冒IT工作人员诈骗有关。
谷歌和斯坦福大学的研究人员提议建立一个由他们生成的1000多个模拟主体组成的“主体库”。该库将由斯坦福大学托管,“为研究提供受控的、仅用于研究的API访问权限,以了解主体行为”,研究人员表示。
虽然这项研究并没有明确推进深度伪造技术的任何能力,但它确实展示了在当今先进研究中快速成为可能的模拟人类性格的创建方面所取得的进展。