微信扫码
与创始人交个朋友
我要投稿
1小时前,runway悄悄发布了一个新的AI视频模型。Gen-3 Alpha:用于视频生成的新基础模型
近期AI视频大模型神仙打架,前有国产可灵,后有Luma,现在runway发布gen-3 Alpha测试版本,加速搅局市场,仿佛在跟Sora喊话:你还来吗?
虽然还不能体验,看完效果后,一个字,赞!仿佛告诉我,我可以在AI视频领域大展拳脚。
Gen-3 Alpha核心特点
Gen-3 Alpha与 Gen-2 相比,它在保真度、一致性和运动方面有了重大改进。时间上突破至10秒。
这是一段城市高速行驶的火车窗户上,映出一位女性的微妙倒影的视频。
无论是角色的表情,还是他们的细微神态,都栩栩如生,仿佛是真人在眼前。镜头中,火车在铁轨上飞驰而过,车窗外光影交错,恍如一个快速转动的万花筒,瞬息万变。
整个场景极具动感,给人一种身临其境之感,仿佛是在观看一段真实拍摄的短视频,而非虚构的影像作品。
没有对比就没有伤害,看看同样的prompt,Gen-2的效果吧。
在捕捉和模拟不同的艺术风格或视觉效果,同样出色,用户能够更轻松、更精确地将特定风格应用到生成的图像或视频中。
这是一段日本女子站在船上,回望镜头的画面的场景,我觉得80%还原日本动漫的风格了
对于文生视频而言,模型能够更好地理解和生成运动信息,如物体的移动轨迹、镜头的移动等,这一点非常重要,用户可以更细致地控制视频中的动态元素,创作出更流畅、更具动感的视频作品。
这段视频的prmopt:手持跟踪镜头,跟随废弃街道上漂浮在地面上的红色气球
视频中无论是光影效果,还是流畅的运镜,创造出一种流畅、动感十足的视觉效果,又一个YYDS。
再看一个示例,场景元素能精准控制到这种程度,是否以后相机都不需要了。
检验一个AI视频大模型行不行,仅仅生成逼真的人物形象还远远不够,你得驾驭多样化的风格,写实风格到卡通风格,从复古风格到未来主义风格。
正如前几天我让某AI模型生成一段悟空打斗的场景,生成了效果无法直视。
Gen-3似乎做到了。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-09-18
阿里8B模型拿下多页文档理解新SOTA,324个视觉token表示一页,缩减80%
2024-09-16
Mac上运行微软最新Phi-3.5-mini大模型+开发Agent
2024-09-12
GPT-4 和 GPT-4o的主要区别
2024-09-10
使用 Dify 和 AI 大模型理解视频内容:Qwen 2 VL 72B
2024-09-10
语音识别大赛五连冠!开会就能用!
2024-09-09
独家丨科大讯飞多模态:都说端到端好,看谁有本事先做出来
2024-09-08
国内首个多模型AI搜索引擎,专门为AI设计的搜索引擎
2024-09-07
语音驱动嘴型与面部动画生成算法大盘点
2024-06-17
2024-07-11
2024-06-17
2024-04-21
2024-08-06
2024-08-30
2024-06-26
2024-07-11
2024-07-15
2024-06-16
2024-09-01
2024-07-31
2024-07-25
2024-07-19
2024-07-15
2024-07-15
2024-07-14
2024-07-14