推出用于视频学习和多模态感知的 Ego-Exo4D 数据集

Ego-Exo4D – 支持视频学习和多模态感知研究的基础数据集
在 Facebook 上观看此视频 https://www.facebook.com/share/v/NNeZinMSuGPtQDXL/?mibextid=i5uVoL

在来自美国、日本、哥伦比亚的 800 多名高技能参与者的协助下,FAIR 和大学合作伙伴共同努力捕捉这些观点。 新加坡、印度和加拿大。 该联盟将于 12 月发布新颖基准任务的数据和注释(包括超过 1,400 小时的视频)。 我们的技术论文包含有关数据集的更多信息。 我们计划明年举办公开基准挑战赛,并发布 ego-exo 理解的基准模型。 每个大学合作伙伴都使用自己的正式审查流程来建立收集和管理、知情同意以及规定正确使用的许可协议的标准。 每个成员都遵循 Aria 项目社区研究指南。 我们希望此版本将为研究社区提供探索 ego exo 视频、多模态活动识别等所需的工具。

Ego Exo4D 的工作原理

Ego-Exo4D 是一款专注于人类技能的软件,包括运动、音乐、烹饪和舞蹈。 人工智能在理解视频中人类技能方面的进步可以实现许多应用。 例如,在未来的增强现实系统中,佩戴智能眼镜的人可以按照虚拟人工智能指南快速学习新技能,该指南向他们展示了如何操作的视频。 机器人还可以通过观察周围的人来掌握新的操作技能。

来源和详细信息:
https://ai.meta.com/blog/ego-exo4d-video-learning-perception/