飞桨手势识别带你玩转神庙逃亡

发表时间:2020-03-30 20:54:12 作者:编辑部 来源:游戏王国 浏览:

在上一篇文章中,小编为您详细介绍了关于《同档位最强综合实力,潮流先锋荣耀30S洗牌5G手机市场》相关知识。本篇中小编将再为您讲解标题飞桨手势识别带你玩转神庙逃亡。

原标题:飞桨手势识别带你玩转神庙逃亡

我们的项目基于飞桨及其高性能端侧推理引擎 Paddle Lite 开发,实现了在基于 Android 系统的手机、平板电脑、嵌入式开发板上利用手势来实时控制贪吃蛇、神庙逃亡、地铁跑酷等交互式游戏,并可在大屏幕端进行投屏展示。

项目内容

手势识别交互系统采用分层架构、模块化方式进行设计,可满足系统定制及扩展的灵活要求。主要包括:前端采集模块、算法模块、通信模块。

采集模块

采集模块实现了 Android 设备上图像采集与设备运行状态的监控功能。通过高频调用关联相机来获取手势图片,将采集到的图片放入缓冲池中以供算法分析模块使用。此外,采集模块还负责对所连设备进行状态监测,如相机离线将及时产生预警,并支持自动重连等功能,保证系统的稳定性。

1. 拍照方法的实现

Android Camera 是安卓系统提供的实现自定义相机功能的官方支持库,采集模块封装了一系列相关调用方法,实现了连续抓拍存储及浮窗实时预览的效果。

此外,对于没有自带摄像头的安卓设备(如嵌入式开发板),我们使用外接 USB 摄像头,并完成 USB 摄像头的驱动模块的编写,实现了设备对外接摄像头的调用及相关配置功能。

2. 浮窗实时预览

为了便于调试,通过 Service 组件定制浮窗的方式来在实时显示当前摄像机的预览画面、手势识别结果、处理响应延时等信息,并设立了开关来一键控制程序,如图所示。

浮窗实时预览效果(镜像显示)

算法模块

算法模块负责对输入的手势图片进行分类,并将识别结果返还。此部分的开发流程如下所示。

1. 数据集的选取与采集

在数据集的选取上,从 NUS Hand Posture Dataset II [1]中选择了5类作为手机、平板电脑等小型设备的手势。该数据集每一类手势由40名志愿者分别在不同的环境下拍摄,并重复5次;同时每类还含有75张有人类身体噪音的图片。共(200+75)×5=1375张图片。

在研究过程中,我们发现 NUS 数据集的手势不符合所应用游戏的正常操作习惯(即上下左右)。因此,我们重新设计并自己采集了数据集,用于电视端远距离的演示。该数据集同样有5种类别,每类由3名志愿者在6种场景下重复6次,共540张图片。但自己在实验室采集的数据集环境比较单一,只适用于特定环境的展示。

从 NUS Hand Posture Dataset II 选取的5中手势, 环境复杂、部分手势不符合游戏操作习惯:

从左至右分别对应控制命令

无控制、上、下、左、右

重新设计并自己采集的数据集示例,环境单一、手势符合游戏操作习惯:

从左至右分别对应控制命令

无控制、上、下、左、右

2. 数据集增广、划分与预处理

由于深度神经网络的训练需要足够的数据支持,规模过小的数据集会使得模型的泛化能力差,容易导致过拟合。因此,我们按以下步骤对 NUS 数据集进行了增广,并划分为训练集、测试集:

  • 从原始1000张无噪音图片、375张有噪音图片中都分别选择125张,共250张作为测试集,以保证数据集在有无噪音、类别等维度的分布相同;
  • 将剩余的875张无噪音图片、250张有噪音图片都分别扩充为3500张,共7000张图片形成训练集。增广方式有:0.8~0.9倍的随机裁剪、以图片中心为旋转中心的±10°的随机旋转。

此外,还通过 padding 的方式将图片调整为方形,以保持原始手势及背景的长宽比。最后,在将图片传入神经网络之前,对图片进行 z-score 归一化,以加快神经网络的收敛速度。

数据集增广及预处理效果如下图所示:

数据集增广、预处理示意图

左:padding后的原图为方形

中:随机裁剪

右:随机旋转

3. 设计、搭建与训练神经网络

在卷积神经网络的选取与设计上,由于要将模型应用于计算资源非常受限的 Android 平台上,因此考虑选用轻量级神经网络 MobileNet[2]。

MobileNet 是目前常用的可以在移动设备端部署的轻量级神经网络。它将标准卷积用 Depthwise Convolution 和 Pointwise Convolution 代替,减少了模型参数与计算量。我们利用百度开源深度学习框架飞桨搭建 MobileNet 并进行训练。

较低延时是手势实时控制游戏的关键。为了降低算法延时,即尽可能减少模型参数量与计算量,但同时保证算法准确率,我们在的基础上,通过调整网络结构(层数、各层通道数),设计多组实验进行对比,结果如表1所示。其中模型输入图片尺寸为120×120×3。最终选择了算法延时小,同时识别准确率较高的模型(序号3),其结构如表2所示。

MobileNet 模型

https://github.com/PaddlePaddle/models/blob/develop/PaddleCV/image_classification/models/mobilenet_v1.py

4. 模型保存

在训练过程中,将模型进行保存,用于之后的推理预测。具体地,在训练时每个 epoch 都将神经网络的参数进行保存,并评估测试集准确率。训练完成后,选择测试集准确率最高的模型作为预测模型。

5. Android 端推理

最后,基于 Paddle Lite 在 Android 端加载模型并进行推理预测。

首先我们要编译 Android 端能够调用的 CPP 库。本项目中编译的是 Paddle Lite。编译时,参考 Paddle Lite 在 GitHub 平台上 Android 部分开发文档基于 Ubuntu 系统,利用 Android NDK 及 CMake 交叉编译出符合我们 Android 硬件环境的库 libpaddle-mobile.so 文件。

Paddle Lite 在 GitHub 平台上 Android 部分开发文档

https://github.com/PaddlePaddle/Paddle-Lite/blob/develop/mobile/doc/development_android.md

之后,将采集模块中摄像头捕捉的图片按照训练模型前完全一致的方法进行预处理,并加载保存好的预测模型,通过调用刚才编译的 libpaddle-mobile.so 库提供的 API,就能实现 Android 端的推理。

下面是没有运行游戏的演示效果。将识别结果和包括摄像头拍照、算法推理、控制的总延时显示在浮窗上,方便调试。

通信模块

通信模块根据算法不同的推理预测结果,向操作系统发送相对应的控制命令,就实现了应用程序的控制。

跨进程操作通常采用进程间通讯,可建立专用通讯管道实现,我们采用向 Android 系统直写 shell 命令模拟动作事件的方式来实现系统控制功能,这种方式快捷高效,但需先取得 root 权限。

实验中用到的设备参数如表3所示。

作品展示

1. 手机端贪吃蛇游戏

2. 平板电脑端神庙逃亡游戏

3. 嵌入式板+电视投屏端神庙逃亡游戏

总结

我们的手势识别交互系统是面向人机交互的嵌入式应用程序,用户仅需使用带有摄像头的安卓设备便可以利用手势实现对界面(游戏)的控制。利用嵌入式主板丰富的接口带来的多平台投影功能,还可以得到更好的展示与体验效果。

本项目中手势指令发出、识别不依赖任何可穿戴的设备,可以使用户获得沉浸式体验,并可带动相关游戏开发、设备制造等产业的发展。相信手势识别等 AI 技术在未来会更加完善,改善人类生活。

参考文献

[1] Pisharady P K, Vadakkepat P, Loh A P. Attention Based Detection and Recognition of Hand Postures Against Complex Backgrounds[J]. International Journal of Computer Vision, 2013, 101(3): 403-419.

[2] Howard A G, Zhu M, Chen B, et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications[J]. arXiv: Computer Vision and Pattern Recognition, 2017.

注:本文示例代码和视频所使用的是 Paddle Lite 早期版本,目前最新版本为Lite 2.3.0.

  • 项目链接: https://github.com/PaddlePaddle/Paddle-Lite

如果在使用过程遇到问题想寻求帮助,欢迎加入 Paddle Lite 的 QQ群:696965088游戏网

编后语:关于《飞桨手势识别带你玩转神庙逃亡》关于知识就介绍到这里,希望本站内容能让您有所收获,如有疑问可跟帖留言,值班小编第一时间回复。 下一篇内容是有关《初灵信息:与中国移动签9123万元供货框架协议》,感兴趣的同学可以点击进去看看。

资源转载网络,如有侵权联系删除。

相关资讯推荐

相关应用推荐

玩家点评

条评论

热门下载

  • 手机网游
  • 手机软件

热点资讯

  • 最新话题