Sora半夜泄露3小时物理效果惊人!奥特曼急拔网线遭艺术家抗议

摘要:OpenAI的Sora API,半夜泄露了!愤怒的艺术家们奉上抗议信,表示拒绝沦为OpenAI的白嫖工具,所以干脆把Sora泄露出去。网友试用发现:这次泄露的Turbo版本,物理效果惊人。

编辑:编辑部 HYZ

【新智元导读】OpenAI的Sora API,半夜泄露了!愤怒的艺术家们奉上抗议信,表示拒绝沦为OpenAI的白嫖工具,所以干脆把Sora泄露出去。网友试用发现:这次泄露的Turbo版本,物理效果惊人。

毫无预兆地,Sora的API就这么水灵灵地泄露了。

就在大半夜,AI社区沸腾了:被OpenAI捂得严严实实的Sora,被艺术家们开!盒!了!

当然,这个发布在Hugging Face上的泄露版本,只是API,并非权重泄露。

原本,OpenAI只是给一些艺术家开放了抢先体验Sora的权限,但是有人不满意了!

他们认为,这是OpenAI在引诱艺术家充当免费公关,向公众传递Sora是对艺术家很有用的工具。

而且,只有少数比赛获胜的艺术家才能发布Sora创作的影片,获得的报酬却是九牛一毛。与此同时,OpenAI却获得了巨额公关和市场推广价值。

因此,有人撂挑子不干了,并且一不做二不休,干脆把API泄露出去。

3小时候,OpenAI立马关闭了所有艺术家的Sora权限。

网友梗图:奥特曼连夜拔网线

不过,访问接口失效前,许多网友已经抢先体验了一遍。

感受就是:效果惊人!

果然,这就跟之前的曝料对上了。两个月前The Information曾报道过,OpenAI正在紧锣密鼓地训练新版Sora,时长更长,物理效果更好,还内置了简单编辑功能。

其中的一个Turbo版本,就是更注重生成速度,也正是这次泄露的模型。

根据泄露的代码信息,可以看到泄露的还是Turbo版本的Sora,完整版Sora仍在保密中。

三小时已有大量视频生成

短短三小时,手快的网友们可是没有放过OpenAI。

无数的试用视频,已经被大批放出了。

可以看出,比起2月放出的演示版,效果又提升了一大截。

艺术家:拒绝OpenAI恶意白嫖

总之,这次泄露事件的缘由,就是艺术家们拒绝被OpenAI白嫖。

在HuggingFace中附上的一封控诉信中,艺术家们对OpenAI控诉道:我们不是你们的免费研发工具!

抗议信的开头和中间,都出现了不少灵魂表情包,表达了自己的愤怒。

┌∩┐(◣◢)┌∩┐亲爱的企业AI霸主┌∩┐(◣◢)┌∩┐

艺术家不是你们免费的研发团队

☠️我们不是你们的:免费测试员、宣传傀儡、训练数据、验证工具☠️

地址:https://huggingface.co/spaces/PR-Puppets/PR-Puppet-Sora

他们指出,尽管被邀请参与Sora早期测试,但实际上沦为了OpenAI的公关工具。整个计划更像是一场精心策划的市场营销,并非真正的创意表达。

他们还在信中提出了诉求,要求摆脱大公司对创意的控制。

更有趣的是,签名信中还有马斯克的名字。至于是不是本尊目前还不得而知。

以下是控诉信的原文:

我们获得了使用Sora的权限,并被告知可以作为早期测试者、红队成员和创意合作伙伴。然而,我们认为,这更像是被引诱参与「艺术洗白」,以向世界宣传Sora是一个对艺术家有用的工具。

数百位艺术家通过漏洞测试、反馈和实验性创作,为一家市值1500亿美元的公司提供了无偿劳动。在数百人免费贡献的同时,只有少数人会通过竞赛被选中,他们的Sora创作影片将被展映——而这点微薄的补偿与OpenAI获得的大量公关和市场营销价值相比,简直微不足道。

此外,每一个输出都需要经过OpenAI团队的批准才能分享。这个早期访问计划看起来与其说是关于创意表达和批评,不如说是关于公关和广告。

我们发布这个工具,是为了让每个人都有机会尝试那些大约300位艺术家所获得的机会:免费且无限制地使用这个工具。

我们并不反对将AI技术作为艺术工具使用(如果反对,可能就不会被邀请参加这个项目)。但我们不同意的是,这个艺术家计划的推出方式,以及这个工具在可能的公开发布前的成型过程。我们希望通过向世界分享这些内容OpenAI能变得更加开放,更加友好地对待艺术家,并超越公关噱头真正支持艺术。

我们呼吁艺术家们使用超越专有技术的工具:开源视频生成工具允许艺术家们远离垄断、商业利益或为任何企业充当公关,从而自由地进行先锋实验。我们也鼓励艺术家们使用自己的数据集训练模型。

一些可用的开源视频工具包括:

- CogVideoX

- Mochi 1

- LTX Video

- Pyramid Flow

然而,我们也意识到,并非每个人都拥有运行开源工具和模型所需的硬件或技术能力,因此我们欢迎工具开发者倾听艺术家的需求,并为真正的艺术表达提供公平补偿的途径。

敬上, 参与Sora alpha测试的艺术家们:Jake Elwes, Memo Akten, CROSSLUCID, Maribeth Rauh, Joel Simon, Jake Hartnell, Bea Ramos, Power Dada, aurèce vettier, acfp, Iannis Bardakos, 204 no-content | Cintia Aguiar Pinto & Dimitri De Jonghe, Emmanuelle Collet, XU Cheng, Operator, Katie Peyton Hofstadter, Anika Meier, Solimán López

OpenAI Sora:扩散模型理解世界

关于Sora的技术细节,主要集中在今年2月初OpenAI发布的报告里。

具体来说,它是一种扩散模型,能够通过从一开始看似静态噪声的视频出发,经过多步骤的噪声去除过程,逐渐生成视频。

Sora不仅能够一次性生成完整的视频,还能延长已生成的视频。

通过让模型能够预见多帧内容,团队成功克服了确保视频中的主体即便暂时消失也能保持一致性的难题。

与GPT模型类似,Sora采用了Transformer架构,从而实现了卓越的性能扩展。

OpenAI把视频和图像分解为较小的数据单元——「patches」,每个「patches」相当于GPT中的一个「token」。

这种统一的数据表示方法能够在更广泛的视觉数据上训练扩散Transformer,覆盖了不同的持续时间、分辨率和纵横比。

Sora基于DALL·E和GPT模型的研究成果,采用了DALL·E 3的重标注技术,通过为视觉训练数据生成详细描述的标题,使模型更加准确地遵循用户的文本指令生成视频。

除了能根据文本指令生成视频外,这款模型还能将现有的静态图像转化成视频,精确细致地赋予图像中内容以生动的动画。模型还能扩展现有视频或补全缺失的帧。

Sora为理解和模拟现实世界的模型奠定了基础,对此OpenAI认为这是实现AGI的重要步骤。

来源:新智元一点号

相关推荐