Google DeepMind上线ProjectGenie实验:文字提示生成可交互世界
Google DeepMind在1月29日发布Project Genie实验页面,提供一套把文字提示转成可交互世界的生成式系统。页面展示了输入提示词后生成的场景、视角移动与基础交互方式,并说明该系统可根据用户的持续操作延展场景内容,让画面与可探索区域在多次交互中保持连贯。官方介绍列出该项目的能力包括:根据自然语言生成环境外观与风格;在用户前进、转向、跳跃等动作触发后继续生成下一段可游玩的画面;在同一世界里维持物体外观、地形与结构的一致性;通过浏览器端演示让用户直接体验生成结果。页面还补充了当前实验版的限制,如生成内容与交互规则可能出现不稳定、物体行为可能不符合预期、长时间游玩会出现细节漂移等,并给出体验提示与常见问题入口;同时链接到相关研究与团队信息,说明这类“可生成且可玩”的世界模型与静态图像生成不同,重点在于把视觉生成与连续控制信号结合,使系统能在玩家操作下持续产出后续帧与可行动空间。该页面列出若干示例提示词与生成结果示意,用户可在不同风格之间切换并重新生成;演示中包含“重新开始”“随机示例”等按钮,用于快速加载预设世界并观察不同提示对场景布局、光照与材质的影响。
支持率>95%