OpenAI首个视频生成模型发布 效果炸裂或再度颠覆行业
OpenAI首个视频生成模型发布 效果炸裂或再度颠覆行业
【CNMO新闻】在推出了ChatGPT震惊整个行业后,OpenAI又放出了另一个大招!就在北京时间2月16日凌晨,OpenAI首个视频生成模型Sora正式发布,该模型完美继承DALL·E 3的画质和遵循指令能力,能生成长达1分钟的高清视频。继Runway、Pika、谷歌和Meta之后,OpenAI终于加入视频生成领域的战争。
OpenAI声称,如果给定一段简短或详细的描述或一张静态图片,Sora就能生成类似电影的1080p场景,其中包含多个角色、不同类型的动作和背景细节。官方表示,Sora对语言有着深刻的理解,能够准确地解释prompt并生成吸引人的字符来表达充满活力的情感。同时,Sora不仅能够了解用户在 prompt 中提出的要求,还能知悉其在物理世界中的存在方式。Sora还可以在单个视频中创建多个镜头,并依靠对语言的深入理解准确地解释提示词,保留角色和视觉风格。
输入“中国龙年舞龙”后Sora生成的视频
在官方博客中,OpenAI提供了很多Sora生成的视频示例,展示了令人印象深刻的效果。不过对于Sora当前存在的弱点,OpenAI也不避讳,指出它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系。
输入“穿过东京郊区的火车窗外的倒影”后Sora生成的视频
据了解,Sora可以一次性生成整个视频,也可以扩展生成的视频,使其更长。通过让模型一次预见多帧画面,OpenAI解决了一个具有挑战性的问题,即确保被摄体即使暂时离开视线也能保持不变。
在相关演示视频下,不少网友都惊叹于Sora的视频生成能力,更有视频制作领域从业者表示,该模型的出现很可能会导致整个行业被颠覆,并使得自己未来失业。
版权所有,未经许可不得转载
版权声明
本文收集整理自网络,如有侵权,请联系删除。