编译/VR陀螺
《Boz To The Future》是一档由Meta Reality Labs打造的播客节目,该节目由Meta首席技术官Andrew Bosworth主持,旨在探讨Meta Reality Labs正在瞄准的元宇宙、VR/AR以及AI等领域。
《Boz To The Future》于近日发布了其最新一期节目,该节目旨在纪念Meta基础人工智能研究团队 (FAIR) 成立10周年,Meta首席科学家Michael Abrash出席了活动并谈到了AI与VR/AR融合的愿景。
借助上下文AI(永不疲倦、随时可用的主动助手),AR眼镜和VR头显可以帮助您实现目标,增强您的感知、记忆和认知,让您的生活几乎神奇地变得更轻松、更高效。
这在以前是不可能的,因为以前从来没有任何设备能够从你的角度看待你的生活。我相信这最终可能是AR/VR革命最重要的方向。正如图形用户界面 (GUI) 是我们今天与数字世界交互的方式一样,情境AI将成为未来的人机界面,它将比GUI更具变革性,因为它直接触及数字世界的核心。帮助我们按照自己想要的方式生活。
在过去的几年里,奇迹发生了。大型语言模型 (LLM) 出现了,它具有处理理解用户目标所需的多模态推理的潜力,并帮助他们根据上下文和历史实现这些目标。
关键在于,大型语言模型有可能在视觉、音频、语音、眼动跟踪、手部跟踪、肌电图和其他上下文输入、你的历史记录以及广泛的世界知识之间进行推理,然后采取行动帮助你实现目标,并在需要时对你进行引导或消除歧义。
LLM需要更上一层楼才能发挥潜力,而FAIR正是实现这一目标的理想团队。从整体上看,FAIR的人工智能研究与Reality Labs的AR/VR研究的融合汇集了创建上下文人工智能界面所需的所有元素,这将充分实现Meta的未来愿景。
除播客外,Meta的博客文章还透露,Meta正计划于明年将多模态人工智能引入Ray-Ban Meta,并为其视频和多模态感知研究提供Ego-Exo4D基础数据集。不过从长远来看,当前只是一个开始,因为未来完整的情境人工智能系统需要的各种技术现在还不存在。
来源:Meta
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)
元宇宙数字产业服务平台
下载「陀螺科技」APP,获取前沿深度元宇宙讯息