ManoMotion利用苹果ARKit可实现手势输入控制

禾木2080 2017年9月8日 503 0

计算机视觉和机器学习公司ManoMotion今天宣布,他们已经把基于智能手机的手势控制集成至苹果的增强现实开发者工具ARKit,从而把基本的手部追踪功能带到AR之中,而这一切只需使用智能手机的板载处理器和摄像头。

分别拥有软件开发工具包ARCore和ARKit的谷歌和苹果公司已经在为增强现实的革命整装待发,而在这样的背景下,开发者们也正满怀热情,想看看基于智能手机的增强现实究竟能走多远。我们已经目睹了很多借助上述两款工具包开发的新案例,包括移动虚拟现实头盔的内向外位置追踪以及一些颇为震撼的试验,但这还是我们首次看到手部追踪功能与上述两种增强现实平台之一的结合。

ManoMotion的首席执行官丹尼尔·卡尔曼(Daniel Carlman)向Venture Beat介绍道,该公司的手部追踪功能可追踪“一只手27个自由度(DOF)中的很大一部分”,因此,在ManoMotion提供对ARKit的支持前,Venture Beat就已经对该公司的手势输入功能先睹为快了。与早前的版本一样,与ARKit融合的新款SDK能够追踪深度,并识别划动、打响指、轻拍、抓握及松手等相似的手势——而据ManoMotion称,所有这些手势都“只会在中央处理器(CPU)、内存和耗电方面留下极小的足迹”。

在ManoMotion发布的视频中,我们看到这款由ARKit驱动的手机应用可识别用户的手部,并对快速弹指将乒乓球弹入水杯中的动作作出反应,而这充分利用了ARKit所有的空间映射功能。

ezgif-3-a5f9973f1b

像beerpong这样把乒乓球弹入水杯中的简单游戏也许看上去平平无奇,但能够使用用户的两只手(在此案例中是一只手)与虚拟的数字领域进行互动,这具有超出游戏本身的巨大意义。HoloLens和Meta 2等增强现实设备依靠手势控制实现用户界面的完全互动,而这打开了一个全新的世界,让与生产力相关的很多动作(如将窗户放到某处及调整窗口大小,或者只是打个响指来打开你屋中与互联网连接的灯具)变为可能。谷歌和苹果公司都未透露对未来增强现实头盔的任何计划,而如今这些在移动平台上进行的先期试验——这些试验未必包含昂贵的定制组件——将会定义不久的将来中增强现实头盔的功能。

“直到现在,增强现实技术的现状仍然有让人遗憾痛心的局限性,即无法直观且深度地与三维空间中的增强物体进行互动。”卡尔曼称,“在这种意义上,将手势控制成功引入ARKit并成为市场上第一家能证明完成此举的公司,对我们来说是个伟大的里程碑。我们迫不及待地希望看到开发者将如何创造并重新定义增强现实的互动!”

ManoMotion称,即将推出的SDK版本就会包含与ARKit融合的功能,而该版本会在“接下来几周内”出现在公司网站上以供下载。该融合功能将最先支持Unity iOS,而在随后的更新中会加入对Native iOS的支持。

声明:591arvr.com所发布的内容均来源于互联网,目的在于传递信息,但不代表本站赞同其观点及立场,版权归 属原作者,如有侵权请联系删除。

相关文章

  • Tippett Studio宣布,使用ARKit制作新版本的《HoloGrid》游戏

    Tippett Studio宣布,使用ARKit制作新版本的《HoloGrid》游戏

  • Fybr公司结合ARKit推出免费寻找车位APP

    Fybr公司结合ARKit推出免费寻找车位APP

  • 苹果ARkit制作AR游戏《CurioPets》再现电子宠物

    苹果ARkit制作AR游戏《CurioPets》再现电子宠物

  • Prosthetic Knowledge——利用AR识别翻译实物

    Prosthetic Knowledge——利用AR识别翻译实物

  • 再也不怕迷路,苹果iOS 11将加入AR导航

    再也不怕迷路,苹果iOS 11将加入AR导航

  • 虚幻引擎更新4.17!新增苹果ARKit支持以及VR功能

    虚幻引擎更新4.17!新增苹果ARKit支持以及VR功能

发表评论

Ctrl+Enter 也可提交哦