了解Sora,OpenAI的令人印象深刻的新兴视频生成软件

译文
人工智能
OpenAI发布了他们称为“Sora”的新模型,该模型能够通过输入文本来生成视频。

OpenAI在2021年掀起了波澜,当时他们宣布了DALL-E,这是一款文本到图像的生成式人工智能工具,让测试版参与者能够实时生成图像。最终生成的视频并不是很理想,当然生成近乎真实的视频画面,需要更多的时间。但是,尽管图像质量很高,人们依然希望对模型进行改进。对许多人来说,第一代DALL-E就像一个初学走路的孩子第一次制作人形。没有人期待完美,但能够如此清晰地看到完全由计算机生成的预期主体的轮廓非常令人鼓舞。

就在2月16日,OpenAI发布了他们称为“Sora”的新模型,该模型能够通过输入文本来生成视频。目前,只有一小部分测试人员可以访问Sora,同时他们可以确定安全限制范围。从OpenAI分享的例子来看,其中一些视频已经可以作为真实镜头传播。特别是主题是地点、动物或物体的镜头。让我们一起来看看下面的例子:

生成这段20秒视频的提示是“一窝金毛小狗在雪地里玩耍。他们的头从雪中伸出来,被雪覆盖”。如果你以前使用过生成式人工智能创建图像,你会明白较短的提示往往会产生奇怪的结果,而带有特定图像的冗长提示往往更接近你脑海中的画面。尽管这个视频令人印象深刻,但该工具的第一次迭代仍有一些信息。雪的物理性质仍然有一种不真实的感觉,因为在某些情况下它看起来会自己移动。

然而,我并没有以日常观看的状态观看这些视频,我观看这些视频的目的是为了找出它们展示中的缺陷,因为我打开它们时完全知道这些是人工智能生成的视频。我认为,一旦该工具完全发布,并且这些剪辑仅作为库存视频使用,大多数人将很难确定它是否是人工智能生成的。即使现在ChatGPT刚刚发布一年多,人们也很难确定文本是否是人工智能生成的,可用的检测工具也不够可靠。

虽然早期人工智能生成的内容对偶然发现它们的普通观众来说更显而易见,但我认为未来人工智能会具有颠覆性影响。今年是美国的选举年,随着人工智能产生的政治错误信息,在向公众发布此工具之前,OpenAI需要考虑人工智能生成视频的道德使用问题。因为已经有利用人工智能操纵选举的先例。但是人工智能监管能够控制它吗?或者任何立法都太轻、太晚了吗?

原文标题:Meet Sora, OpenAI’s impressive new video generation tool

原文作者:Scott Thompson

责任编辑:梁佳乐
相关推荐

2024-02-19 07:58:01

OpenAI模型GPT

2024-08-15 08:31:35

SAM 2LLM大型语言模

2024-02-19 08:31:10

SoraAIOpenAI

2021-09-14 14:39:46

物联网建筑工人IoT

2024-04-07 14:56:22

技术应用

2024-02-21 23:11:19

2019-12-17 14:43:01

大数据业务系统企业

2024-02-19 00:05:00

视频AI

2024-03-25 00:30:00

AI框架

2024-02-19 08:56:00

AI模型

2022-06-07 14:55:23

苹果M2 芯片MacBook

2024-02-23 15:53:13

OpenAISora人工智能

2024-03-19 10:59:45

OpenAI人工智能

2012-05-09 13:45:04

jQuery

2024-01-03 15:09:21

云原生Go语言

2023-10-04 00:18:00

云原生Go语言

2024-02-20 13:09:00

AI视频

2024-02-29 15:39:00

AI研究算力

2024-02-19 09:19:54

OpenAIAI模型人工智能

2024-02-19 09:10:46

OpenAISora功能
点赞
收藏

51CTO技术栈公众号