https://static.jiayezz.com/d4/09451952f9d326b481a52951415203

正如电脑开始帮助正常人类更好地探索世界各地,机器人和人工智能也将帮助视障人群游遍全世界。来自IBM研究院和卡内基梅隆大学(CMU)的科学家正在寻找把这些变成现实的解决方案。

目前,科学家们正在研发一个被称为“NavCog”的应用程序,它将通过智能手机上产生的声音或振动为视障人群导航。用户也可以根据他们的需要,自主地选择以声音或振动模式运行这个应用程序。


这种算法会使用从智能手机的相机上获取的图像,并创建一个三维图像。这个3D模型会在随后以声音或振动的形式为视障人士生成导航。

这个项目是由Yorktown Heights、N.Y.和Carnegie Mellon三个IBM研究中心合作展开的。值得注意的是,这个项目的主要研究者之一(Chieko Asakawa)自己就是视障人士。她对这个app非常有信心,认为它将帮助她在研究中心内轻松行走。

但是这仅仅是一个开始, 关于这个项目还有很多工作要做。科学家正在研究中心外测试这个应用,而直到现在他们只在校园里面试验过。所以科学家们正在努力让这个项目在BlueMix云中可用,并看看这个应用程序在其他环境中运行得怎么样。

研究人员正致力于使应用程序支持没有任何蓝牙信号的环境 (目前应用程序只能在支持蓝牙信号的工作环境下使用)。为此,他们正在发展计算机辅助视觉。

据研究人员介绍,计算机辅助视觉定位技术可以帮助保存位置。这将避免使用在到处都不容易获取的蓝牙信号。

一个研究人员在新闻发布会上说:

卡内基梅隆大学机器人研究所的主任Martial Hebert 说:‘我们已经创造了一种技术,使现实世界的环境更适合每一个人。我们在发展与人类和机器人相关的技术方面,已经具有了悠久的历史,这将补足人类所缺失的感知周围世界的能力,这个开放平台将帮助扩大全球合作的范围,并在不久的将来为盲人打开新世界的大门。’”


        但是,这个项目不会仅仅是导航,它的进一步的目标包括面部识别,这会实时帮助视障人士辨认出他们认识的人。

        这样的话,盲人可以通过面部表情识别一个人,而这就是研究人员正计划增加的功能。

  IBM正在创建的东西将永远地改变世界。研究人员认为,从长远角度看这个项目将帮助包括医学专家和天气预报员在内的一些人。但是,仍然很多路要走。

 这已经不是第一次有研究人员为视障人群开发app了。2015年3月,一个被称为Wayfindr的应用程序通过声音来帮助人们乘坐伦敦地铁。

文章原文链接:https://www.anquanke.com/post/id/82804