如何将基于SSD神经网络的实时手部检测器改写为长尾词?
- 内容介绍
- 文章标签
- 相关推荐
本文共计3711个文字,预计阅读时间需要15分钟。
【编者按】传统的追迹检测物体方法大多基于规则,面对一些复杂情况(如光照、遮挡、视角)时表现不佳。而快速神经网络的出现,使得将神经网络应用与实时物体追踪检测成为可能。IBM研究“
传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(R传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(Research Staff Member)Victor Dibia在本月初发文介绍了如何使用Tensorflow框架基于SSD神经网络构建实时手部检测器。
注:本文系作者授权论智(公众号:jqr_ai)编译,请勿随意转载,引用代码请根据文末格式。
本文记录了使用Tensorflow(Object Detection API)训练一个手部检测器的步骤和代码。我主要感兴趣的是实时检测桌子上的手。我希望本文能够展示如何将神经网络应用于追踪手部(第一人称视角和其他视角),并取得良好的结果。
可以从Github获取所有的代码(包括训练好的模型)。
下图是检测器的实时演示:
和任何基于DNN/CNN的任务一样,流程中成本最高的(也是风险最大的)部分是寻找或创建正确的(标注过的)数据集。我首先尝试了牛津手部数据集进行了实验(结果不好)。我接着尝试了Egohands数据集,这个数据集更符合我的需求(第一人称视角、高质量图像、手部标注)。
一些fps数字:
- 21 FPS 使用320 * 240图像,运行时无可视化结果。
本文共计3711个文字,预计阅读时间需要15分钟。
【编者按】传统的追迹检测物体方法大多基于规则,面对一些复杂情况(如光照、遮挡、视角)时表现不佳。而快速神经网络的出现,使得将神经网络应用与实时物体追踪检测成为可能。IBM研究“
传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(R传统的追踪检测物体方法大多基于规则,面对一些复杂情况时(光照、遮蔽、视角)表现不佳。而快速神经网络的兴起,使神经网络应用于实时物体追踪检测成为可能。IBM研究院研究员(Research Staff Member)Victor Dibia在本月初发文介绍了如何使用Tensorflow框架基于SSD神经网络构建实时手部检测器。
注:本文系作者授权论智(公众号:jqr_ai)编译,请勿随意转载,引用代码请根据文末格式。
本文记录了使用Tensorflow(Object Detection API)训练一个手部检测器的步骤和代码。我主要感兴趣的是实时检测桌子上的手。我希望本文能够展示如何将神经网络应用于追踪手部(第一人称视角和其他视角),并取得良好的结果。
可以从Github获取所有的代码(包括训练好的模型)。
下图是检测器的实时演示:
和任何基于DNN/CNN的任务一样,流程中成本最高的(也是风险最大的)部分是寻找或创建正确的(标注过的)数据集。我首先尝试了牛津手部数据集进行了实验(结果不好)。我接着尝试了Egohands数据集,这个数据集更符合我的需求(第一人称视角、高质量图像、手部标注)。
一些fps数字:
- 21 FPS 使用320 * 240图像,运行时无可视化结果。

