Un robot que lee el pensamiento de los humanos sin necesidad de ningún implante cerebral. Como muchas otras veces, la ciencia aspira superar a la ficción. Así lo demuestra el último avance tecnológico presentado por las empresas japonesas Honda y Shimadzu: el Interfaz Cerebro-Máquina (Brain-Machine Interface o BMI), con la que por primera vez el usuario puede dar órdenes a un robot sólo con el pensamiento… y un casco.
De momento, el robot sólo es capaz de leer cuatro órdenes emitidas por la mente humana, relativas a cuatro movimientos diferentes: mover la mano izquierda, la derecha, los dos pies o la boca. Pero los promotores esperan que en el futuro puedan ampliarse las aplicaciones.
En una rueda de prensa en Tokio, los ingenieros responsables de esta revolucionaria tecnología que las órdenes cerebrales eran interpretadas en el 90,6% de los aseguraron casos con precisión por Asimo, el robot humanoide más avanzado del mundo.
Es la primera vez en la historia que esta tecnología BMI alcanza una tasa de éxito tan alta, según los ingenieros del fabricante japonés, que recordaron que hasta ahora lo máximo que se había registrado era un 66% de acierto. La ciencia lleva décadas persiguiendo el sueño de poder conectar el cerebro humano a las máquinas, principalmente para aliviar a los pacientes con parálisis.
Pero a diferencia de otras tecnologías de uso médico, con ese dispositivo no es necesario implantar ningún tipo de sensor en la cabeza del sujeto que da las órdenes, dijeron.
Aplicaciones neurocientíficas
Esto puede revolucionar el mundo de la neurociencia”, dijo Yasuhisa Arai, director de Investigación y Desarrollo (I+D) de Honda y responsable del desarrollo del BMI junto al fabricante de tecnología Shimadzu.
La tecnología tiene dos puntos clave: un dispositivo de extracción de la información del cerebro y, lo que según los ingenieros es la parte más complicada, la identificación de las diferentes órdenes cerebrales.
Para este segundo paso, Honda ha utilizado por primera vez una combinación de la tecnología del EEG (Electroencefalograma), que mide las variaciones de los impulsos eléctricos del cerebro, y la NIRS (Espectroscopia Cercana de Infrarrojo), con la que calibra los cambios en el flujo sanguíneo.
La tecnología presentada hoy supera en avances a la desarrollada por Honda en mayo de 2006, cuando el fabricante alcanzó su primer hito con el BMI.
Ahora ya no es necesario que el sujeto se mueva ni que reciba un entrenamiento especial. El dispositivo es además portátil y el robot con el que se está experimentando es Asimo, la niña bonita de los humanoides de Honda.
El fabricante japonés no desveló cuánto dinero le ha costado el desarrollo de esta tecnología, con la que se espera que en el futuro se pueda encender el aire acondicionado o abrir la puerta del maletero cuando una persona se acerque a su coche con la compra.
“Estamos en un nivel muy básico. Me temo que aún tendremos que esperar mucho tiempo para que un robot limpie la casa con tan sólo pensarlo”, concluyó Tatsuya Okabe, ingeniero del HRI.