18. AI 视频
功能介绍
AI 视频是 Genspark 的视频生成空间,集成了 Gemini Veo 3.1、Sora 2、Kling V2.6、Seedance Pro、MiniMax Hailuo-2.3、PixVerse V5 等多款当前最先进的视频生成模型。用户只需用文字描述场景、故事或创意,AI 就能自动生成对应的视频片段。
核心功能
- 多模型选择:默认使用 Gemini Veo 3.1,也可切换其他模型
- 时长设置:支持选择生成视频的时长(如 4 秒等)
- 自动提示词:AI 自动优化和丰富用户的视频描述
- 设置面板:自定义分辨率、风格等参数
- 资源管理:管理生成的视频素材
示例展示
示例一
生成效果展示
示例二
示例三
示例四
示例五
使用技巧
- 视频描述要包含场景细节、动作描写、镜头运动、光线氛围等元素
- 涉及人脸的内容和真人视频请求失败率较高,可多次尝试
- 生成失败不消耗积分,可以放心重试
- 生成的视频片段可以在剪辑天才中进一步编辑和组合
进阶技巧
1. 精准描述:结构化提示词
AI 视频生成对提示词的敏感度极高,建议采用“主体 + 动作 + 环境 + 风格 + 镜头”的结构。例如:“一只毛茸茸的橘猫,在阳光斑驳的窗台上伸懒腰,4k 超写实风格,微距镜头,浅景深”。将关键元素前置,避免冗长无效的描述。
2. 善用负面提示词
大多数视频模型支持负面提示词(Negative Prompt)。明确排除不希望出现的内容,如“畸形的手、画面闪烁、模糊、多余肢体、变形”等,能显著提升画面稳定性和美学质量。
3. 控制镜头运动
如果模型支持单独的运动参数(如平移、推拉、旋转、缩放),尽量分开指定。例如“镜头缓慢向右平移”比“镜头移动”更可控。若模型不支持,可在提示词中用“dolly zoom, slow pan, cinematic camera movement”等关键词引导。
4. 分镜组合法
一次生成 4–6 秒的短片段,然后用剪辑软件拼接。每个片段只表达一个动作或场景,通过不同角度、景别的镜头组合,能获得远胜于一次性长生成的效果。工具如 Runway、Kling、Luma 都适合这种工作流。
5. 迭代优化:从短到长
先以较低分辨率、较短时长(如 3 秒)测试提示词效果,确定运动与风格符合预期后,再增加时长、提升分辨率。这样能节省大量生成时间与算力成本。