SISTEMA DE ASISTENCIA A LA NAVEGACIÓN DE PERSONAS INVIDENTES O CON DEFICIENCIA VISUAL.

La presente invención se refiere a un sistema multisensorial desarrollado para la asistencia a la navegación de personas invidentes o con deficiencia visual con objeto de guiar al usuario usando una fusión entre un sensor GPS y otro de visión artificial. El sistema indica al usuario el camino que tiene que seguir para llegar a un destino evitando obstáculos

, utilizando para ello información acústica obtenida mediante un sintetizador de voz. Está compuesto por cuatro subsistemas. El subsistema de visión obtiene una imagen de profundidad a partir de una cámara estéreo. El subsistema GPS permite geo-referenciar la información visual con objeto de obtener mapas 3D de grandes entornos. En el subsistema de procesado es donde se ejecutan las funciones responsables del sistema de asistencia. El subsistema de señalización acústica sirve para dar los correspondientes avisos de navegación y evitación de obstáculos al usuario as como proporcionar los destinos de la navegación.

Tipo: Patente de Invención. Resumen de patente/invención. Número de Solicitud: P201231402.

Solicitante: UNIVERSIDAD DE ALCALA..

Nacionalidad solicitante: España.

Inventor/es: BERGASA PASCUAL,LUIS MIGUEL, FERNANDEZ ALCANTARILLA,PABLO, YEBES TORRES,José Javier, ALMAZÁN YAGÜE,Javier.

Fecha de Publicación: .

Clasificación Internacional de Patentes:

  • SECCION G — FISICA > METROLOGIA; ENSAYOS > LOCALIZACION DE LA DIRECCION POR RADIO; RADIONAVEGACION;... > Sistemas de posicionamiento por satélite; Determinación... > G01S19/14 (especialmente adaptados para aplicaciones específicas)
google+ twitter facebookPin it
SISTEMA DE ASISTENCIA A LA NAVEGACIÓN DE PERSONAS INVIDENTES O CON DEFICIENCIA VISUAL.

Fragmento de la descripción:

Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual.

SECTOR DE LA TÉCNICA

El sector de la técnica principal en el que se encuadra la presente invención es el de los sistemas de localización y navegación basados en visión artificial y GPS. Teniendo en cuenta la aplicación, se encuadra dentro de los sistemas de asistencia a la navegación de personas con discapacidad.

ESTADO DE LA TÉCNICA

La movilidad independiente es de extrema importancia para aquellas personas que presentan deficiencias visuales o ceguera. Sin una buena autonomía para poder desplazarse, la persona invidente depende de otras personas u otros factores para poder desarrollar su actividad cotidiana. En los últimos años, se han realizado grandes avances tecnológicos en el campo de los sistemas de posicionamiento por satélite. El estudio de estos sistemas de posicionamiento, constituye una interesante línea de investigación para su uso en la vida cotidiana por personas invidentes o con deficiencias visuales.

El principal reto que presentan los sistemas de asistencia a la navegación para personas invidentes es la obtención de una información precisa sobre la localización y orientación espacial del usuario en un entorno. La mayoría de los sistemas propuestos hasta el momento se basan en el uso de sensores GPS, los cuales presentan problemas de fiabilidad en entornos urbanos y errores de localización demasiado altos para el uso cotidiano de estos sistemas por peatones [Loomis et al., 2001], [Oh et al., 2004], [Morales y Berrocal, 2005], [SWAN, 2007]. El error en localización que se puede obtener con un GPS normal en buenas condiciones de visibilidad, se encuentra alrededor de 10 metros. Este error es demasiado grande y puede suponer grandes problemas cuando el usuario se desplaza por sitios desconocidos o no habituales. Además, es bastante frecuente que el GPS pierda la señal de los satélites cuando se utiliza en las ciudades. Debido a que el GPS solamente funciona a cielo abierto, la poca fiabilidad de la medida en entornos interiores, túneles o bajo la sombra de edificios altos, exige que se investiguen nuevas técnicas de localización para permitir una navegación autónoma a la comunidad de personas invidentes.

Algunos trabajos proponen el uso de balizas auditivas combinando la información procedente de un dispositivo GPS [Walter y Lindsay, 2005, 2006]. El principal problema de este tipo de sistemas, es que su rango de acción es muy limitado, ya que se necesitan colocar diversas balizas auditivas en un entorno determinado. Por lo tanto, la aplicación de este tipo de sistemas en entornos tales como ciudades es inviable. Otra línea de investigación combina la información de diferentes sensores inerciales y un dispositivo láser 2D colocados en el bastón de movilidad utilizado normalmente por los usuarios invidentes [Hesch and Roumeliotis, 2010]. Los principales problemas que presenta este sistema son el coste excesivo que puede suponer incorporar un sistema láser en los bastones de movilidad, así como su difícil adaptación a entornos no estructurados y que presenten poca reflectividad para el dispositivo láser.

Otra técnica utilizada son las etiquetas de tipo Radio Frequency IDentification (RFID) [Kulyukin et al., 2004]. El propósito de la tecnología RFID es transmitir la identidad de un objeto mediante ondas de radio. Las etiquetas RFID son unos dispositivos pequeños, similares a una pegatina, que pueden ser adheridas o incorporadas a un producto, un animal o una persona. Las etiquetas pasivas no necesitan alimentación eléctrica interna, mientras que las activas sí lo requieren. Los principales problemas de esta tecnología son la necesidad de dimensionar una red de etiquetas y colocarla en un entorno conocido, además de que los errores en localización pueden ser elevados, si no se dispone en el entorno de muchas etiquetas RFID. Otra línea de investigación abierta es la de los sensores ópticos basados en tecnología Light-Emitting Diode (LED) para su posible uso por la comunidad de usuarios invidentes [SINAI, 2010]. Este tipo de sistemas presenta una serie de problemas similares a los sistemas basados en tecnología RFID.

Dentro de las nuevas técnicas de sistemas de localización existentes a día de hoy, la visión artificial supone un gran salto cualitativo con respecto a sistemas de localización basados en satélite. Mediante el uso de cámaras y el posterior procesado de las imágenes adquiridas, la visión artificial permite obtener resultados de localización muy precisos del orden de centímetros, además de poder proporcionar una información muy importante sobre la percepción del entorno en el que camina el usuario [Saéz et al., 2005], [Treuillet et al., 2007], [Davison et al., 2007], [Li et al., 2009], [Saéz y Escolano, 2008], [Alcantarilla et al., 2010], [Pradeep et al., 2010], [Alcantarilla et al., 2011]. De esta forma, mediante tecnologías de visión artificial se pueden desarrollar sistemas de evitación de obstáculos y de adición de información semántica al mapa (como por ejemplo paradas de metro, autobuses, cajeros automáticos, papeleras, etc.) utilizando el mismo sistema sensorial. Existen en la literatura algunos trabajos en esta línea pero ninguno aplicado a la asistencia a la navegación de personas invidentes o con deficiencia visual en grandes entornos reales que incluya evitación de obstáculos e información semántica.

DESCRIPCIÓN DE LA INVENCIÓN

El sistema desarrollado para la asistencia a la navegación de personas invidentes o con deficiencia visual se divide en varios subsistemas. El primero de ellos es el subsistema de visión artificial, se trata de un sistema de percepción que se dedica a la obtención de imágenes de disparidad (profundidad) de la escena. Consta de una cámara estéreo para la captura de imágenes junto con su óptica correspondiente y va alojada en un chaleco que debe portar el usuario. El subsistema GPS es un sistema de percepción complementario al de visión y permite geo-referenciar la información obtenida mediante el subsistema de visión permitiendo su funcionamiento en grandes entornos, fundamentalmente exteriores. Consta de un receptor GPS de bajo coste integrado en el chaleco que porta el usuario. El subsistema de procesamiento está basado en un procesador sobre el que se implementan y ejecutan las funciones necesarias para llevar a cabo la asistencia a la navegación. Consta de cuatro módulos: módulo de mapeado 3D, módulo de localización y navegación, módulo de evitación de obstáculos y módulo de información semántica. El subsistema de señalización acústica se alimenta de la salida proporcionada por el sistema de procesamiento y es, por un lado, el responsable de dar los correspondientes avisos de navegación y evitación de obstáculos al usuario usando para ello unos auriculares especiales no invasivos que dejan libres los oídos del invidente. Por otro, este subsistema se encarga se reconocer los comandos vocales del usuario que proporcionan los destinos de la navegación.

A continuación se describen las funciones de cada uno de los elementos del sistema.

Subsistema de visión artificial

Consiste en una cámara estéreo tipo CCD con scan progresivo en RGB, con salida IEEE1394 (FireWire) y con óptica de gran angular. Debe tener una resolución por encima de 640x480 píxeles y capturar al menos a 20 FPS. La cámara deberá calibrarse en un setup inicial y deberá generar una imagen de disparidad (o imagen de profundidad) de al menos 640x480 píxeles. La cámara deberá ir colocada en un chaleco especial que se pondrá el usuario a la altura del pecho de forma no invasiva y que deberá estar enfocada hacia el frente de forma que capture imágenes frontales del entorno del usuario. La cámara...

 


Reivindicaciones:

1. Sistema multisensorial de localización y asistencia a la navegación de personas invidentes o con deficiencias visuales que comprende:

a. Un subsistema de visión artificial (1) compuesto por una cámara y que comprende medios para obtener un mapa de profundidad.

b. Un subsistema GPS (2) .

c. Un subsistema de procesado (3) que se divide a su vez en 4 módulos funcionales:

i. Módulo de mapeado 3D (3.1) caracterizado por construir un mapa 3D de características visuales del entorno a partir de la información obtenida del subsistemas de visión artificial (1) y del subsistema GPS (2) , que comprende medios para detectar características visuales esparce “caracterizadas por ser fácilmente distinguibles por su apariencia visual y estar distribuidas en el entorno” mediante técnicas de procesamiento de imágenes basadas en descriptores robustos, geo-referenciarlas globalmente y almacenarlas en una base de datos.

ii. Módulo de localización y navegación (3.2) caracterizado por localizar globalmente a un usuario en tiempo real dentro del mapa obtenido mediante el módulo de mapeado 3D (3.1) , utilizando técnicas de correspondencias de marcas visuales, y de guiarlo de forma segura a un destino final definido por el propio usuario a través del subsistema de señalización acústica (4) , que comprende medios para posicionar en el mapa el destino final, planificar una trayectoria sobre el mapa desde la posición en la que se encuentra el usuario hasta el destino final, y de codificar comandos de navegación, usando una representación topológica del mapa, la cual se transmitirán al usuario a través del módulo de señalización acústica (4) .

iii. Módulo de evitación de obstáculos (3.3) caracterizado por detectar los obstáculos circundantes alrededor del usuario, a partir de la información recibida del subsistema de visión artificial (1) y del subsistema GPS (2) , y de generar una trayectoria alternativa en el módulo de mapeado 3D (3.1) que permita evitarlos y continuar la trayectoria definida mediante el módulo (3.2) . Para ello se utilizan las imágenes obtenidas por el subsistema de visión artificial (1) y se aplican técnicas de procesamiento de imágenes para detección de objetos y estimación del movimiento de los mismos de forma dinámica, y que comprende medios para codificar comandos de navegación locales con objeto de guiar al usuario en la evitación de los obstáculos, siendo estos transmitidos a través del subsistema de señalización acústica (4) .

iv. Módulo de información semántica (3.4) caracterizado por localizar ciertas posiciones en el entorno de interés para el usuario invidente y que se añadirán como información semántica al mapa 3D generado mediante el módulo de mapeado 3D (3.1) . Estas posiciones serán informadas mediante el subsistema de señalización acústica (4) al usuario cuando su trayectoria se encuentre en las proximidades de las mismas conforme a la información proporcionada por el módulo de localización y navegación (3.2) , y que comprende medios para reconocer y etiquetar lugares del entorno mediante técnicas de reconocimiento visual de escenas.

d. Subsistema de señalización acústica (4) que comprende medios para reconocer órdenes vocales y generar comandos acústicos.

2. Sistema multisensorial, según reivindicación 1, que comprende medios para añadir nueva información 3D al mapa, obtenido mediante el módulo de mapeado 3D (3.1) , extendiendo el entorno mapeado cuando el usuario camina por zonas que no han sido previamente registradas en el mapa, mediante el uso de técnicas de localización y mapeado simultáneos. Esta información actualiza la base de datos local del sistema.

3. Sistema multisensorial, según reivindicaciones 1 y 2, que comprende medios para enviar la base de datos local que contiene el mapa 3D de un usuario a los servidores de un operador de telecomunicaciones, a través de un enlace de datos inalámbrico, con objeto de ser almacenada y fusionada con la de otros usuarios, si las hubiere, de forma que siempre se almacene la versión más precisa y actual del mapa 3D.

4. Sistema multisensorial, según reivindicaciones 1, 2 y 3, que comprende medios para descargar de los servidores de un operador de telecomunicaciones, a través de un enlace de datos inalámbrico, el mapa 3D del entorno más actual que se disponga y que funcionará como base de datos local del usuario.

5. Sistema multisensorial, según reivindicaciones 1, 2, 3 y 4, caracterizado por que el módulo de información semántica (3.4) no solo proporciona información de interés sino que las posiciones identificadas por el mismo son destinos finales para el usuario. El usuario selecciona la posición deseada mediante el módulo de señalización acústica (4) y el sistema tiene medios para guiarlo a ese destino tomando como base el mapa definido en el módulo de localización y navegación (3.2) y la metodología definida en los módulos de localización y navegación (3.2) y de evitación de obstáculos (3.3) .