曾经在Artificial Analysis的AI视频竞技场排名第一的视频生成模型HappyHorse 1.0,现在终于能通过官方渠道使用了。打开千问APP或访问千问创作网页版(c.qianwen.com),就能直接体验,甚至还赠送了免费试用额度。这款产品出自阿里刚成立不到一个月的ATH事业群,之前一度引发了不少讨论。
实测亮点:不只在生成视频
经过实际测试可以发现,HappyHorse 1.0并没有设计太多复杂的可调参数,而是把精力重点放在了三个层面:动作是否流畅、声音是否真实、镜头空间是否有逻辑。
镜头语言更有故事感。 很多视频模型为了不出错,往往会选择固定的机位,画面缺乏调度。而HappyHorse 1.0则像一位经验丰富的摄影指导,知道什么时候推近镜头强化情绪,什么时候拉远交代环境。从大全景到马蹄扬起的特写,再到低角度仰拍拔枪瞬间,切换都非常自然。
动作和表情更有层次。 输入“白裙女生在花海中从左走到右,转裙子、捧花闻香”这样的指令,生成的画面中人物步伐稳定,没有常见的“滑步”问题,整个动作一气呵成。更让人印象深刻的是一段小孩咬柠檬的视频:从咬下去的瞬间,到酸味刺激下的面部紧绷、五官皱成一团、眼睛紧闭,再到酸劲消退后慢慢放松、茫然睁眼——情绪变化非常清晰。根据官方提供的数据,这款模型在人类偏好评分上是上一代产品的3倍,动作流畅度和清晰度提升明显。
声音开始参与讲故事。 大多数AI配音的问题在于听起来像“念词”而不是“说话”,语调缺乏情绪变化,对话中听者的反应也常常缺失。HappyHorse 1.0在这方面改善了不少:语气和情绪对得上,多人对话时,听者的表情和细微反应也自然存在。环境音如书写声、翻页声、远处的背景音不再像是从音效库里随机抽取的,而是与画面动作精准匹配,能有效增强沉浸感。此外,它还支持普通话、粤语、英语、日语、韩语、德语、法语等多种语言的唇形同步,这对虚拟主播和短视频创作者来说非常实用。
风格还原很到位。 无论是老港片的胶片颗粒感、美剧那种高反差的冷峻光影,还是韩剧柔和的画面氛围,HappyHorse
1.0都能比较准确地呈现,不需要用户输入复杂的风格提示词。
怎么用?能做什么?
在千问APP上把应用更新到新版,点击首页的「HappyHorse」按钮就可以进入生成界面。网页版访问c.qianwen.com,适合有更专业需求的用户。两者都支持文生视频和图生视频,最高输出1080p分辨率,时长可以选择5秒、10秒或15秒,画面比例有16:9、9:16和1:1三种可选,还能直接生成带音频的视频。
对于做新媒体运营、短剧或者电商营销的人来说,过去需要整个后期团队才能完成的分镜预演、概念短片,现在一个人就能在千问里快速搞定。相当于一个人就能撑起一个专业的视听制作团队。
更大的看点在后面
HappyHorse 1.0的开放,意味着千问正在从一个日常提效工具,升级为覆盖工作、学习、生活和创作的全能AI助手——把顶级的视频生成能力直接放进对话框,大大降低了创作门槛。与此同时,千问还启动了“天马行空”挑战赛,设有四个AIGC视频赛道,总奖金池20万元。
先进的技术,已经以简单的方式装进了你的手机。现在,该你上场了。
【免责声明】部分数据来源于网络:本文核心事实参考自国家市场监管总局公开通报、人民日报、北京市海淀区市场监管局发布信息等权威渠道。如有侵权,请及时与本网站联系,我们将第一时间予以删改。文中所涉观点、数据及分析仅代表小编个人观点,仅供参考,不构成任何投资建议、商业决策依据或法律承诺。投资有风险,决策需谨慎;任何单位或个人据此进行商业决策、经营行为所产生的风险,均自行承担。