Las interfaces cerebro-computadora (ICC), también conocidas como interfaces cerebro-máquina (ICM), interfaces cerebro-ordenador (ICO), interfaces neuronales directas (IND) o sencillamente como tecnología BCI por las siglas del término en inglés Brain–Computer Interfaces,[1] constituyen una tecnología que se basa en la adquisición de información neural (por ejemplo datos de electrofisiología nerviosa o registros de ondas cerebrales) para su procesamiento e interpretación a través de un ordenador.
Establecen un nuevo camino para interactuar con tecnología mediante nuestro pensamiento, ya que estas interfaces permiten transformarlo en acciones reales en nuestro entorno.[cita requerida]
Esta tecnología ha atraído a muchos investigadores durante las últimas décadas con el motivo de desarrollar una interfaz cerebro-ordenador eficiente, robusta y fiable, lo cual ha supuesto que cada uno de los diferentes grupos de investigación creara su propio "modus operandi" respecto a la tecnología de sus dispositivos. A pesar de las diferencias entre los diferentes dispositivos todos siguen el mismo principio de funcionamiento básico: la medición de la actividad cerebral mediante sensores, procesado de la señal adquirida para obtener sus características de interés y, por último, interaccionar con el entorno de la forma deseada por el usuario.
Las principales ventajas de esta tecnología son, por una parte instaurar un canal natural de interacción entre el hombre y la máquina el cual puede aprovechar información motora, cognitiva y emocional humana obtenida directamente del cerebro.
El origen de las tecnologías BCI nació con el descubrimiento de la naturaleza eléctrica del cerebro. El científico Richard Caton en 1875 usó un galvanómetro para observar impulsos eléctricos en la superficie del cerebro vivo de algunos animales.
Años más tarde, Hans Berger dio continuidad al trabajo de Caton y consiguió registrar la actividad cerebral mediante la electroencefalografía siendo en 1924 el primero en registrar un EEG de un cerebro humano. Mediante análisis de EEG, Berger consiguió clasificar las diferentes ondas cerebrales, por ello las ondas Alfa (8-12 Hz) también se denominan ondas Berger.
Hubo que esperar hasta 1970 para que se iniciara la investigación de los primeros dispositivos BCI en la Universidad de California, Los Ángeles (UCLA) con una beca de la Fundación Nacional de Ciencia seguida por un contrato de DARPA (Defense Advanced Research Projects Agency, Agencia de Proyectos de Investigación Avanzados de Defensa). El campo de investigación BCI se ha centrado principalmente en fines médicos, como la implantación de prótesis neuronales para poder recuperar la audición, vista o movilidad dañadas en un individuo. Las primeras prótesis desarrolladas fueron en 1990.
En la primera década del siglo XXI la investigación además de en fines médicos, se centró también en la industria de los videojuegos y se introdujeron en el mercado las primeras interfaces cerebro ordenador no invasivas.
A partir del 2016, la comunidad científica se encuentra expectante frente a la empresa de neurotecnología Neuralink, fundada por el excéntrico multimillonario Elon Musk, debido a que ha venido desarrollando tecnología revolucionaria que permite comunicación bidireccional de precisión entre dispositivos externos y el cerebro, cuyas implicaciones éticas siguen siendo una cuestión importante en el mundo científico.[2]
Las interfaces cerebro-ordenador miden la actividad de las neuronas para obtener la señal que luego se procesará. Se diferencian dos tipos de dispositivos según el método de obtención de la señal:
A pesar de que la primera y más popular técnica debido a su simplicidad y coste sea la electroencefalografía (EEG), existen otras técnicas no invasivas como la magnetoencefalografía MEG, la tomografía por emisión de positrones (PET), la imagen por resonancia magnética funcional (fMRI) y la imagen óptica cercana al infrarrojo (fNRI). Aunque estas últimas son técnicas muy caras y requieren una gran preparación técnica.
En este apartado se describe el principio de funcionamiento básico de las interfaces cerebro-ordenador, según se describe en el blog La Cofa.[3] Se diferencian cuatro bloques principales:
La señal obtenida es de naturaleza limitada, da instrucciones del tipo «sí/no» o «mueve arriba/abajo» adecuadas al dispositivo.
Hay muchos tipos de aplicaciones de estas tecnologías que abarcan desde el ámbito médico hasta el más lúdico.[1] Más en concreto pueden encontrarse en el ámbito de la rehabilitación o sustitución motora.[4]
Una de las áreas de investigación más destacable en la tecnología BCI es la de generar aplicaciones para personas con discapacidad. Estas tecnologías (basadas en técnicas no invasivas) permiten por ejemplo desde controlar el movimiento de una silla de ruedas o un robot inalámbrico hasta controlar diferentes dispositivos electrónicos presentes en cualquier vivienda. Por otra parte, las técnicas invasivas permiten el implante de neuroprótesis con las que el usuario puede realizar por ejemplo el movimiento de un brazo robot con un mejor funcionamiento que en las técnicas no invasivas.
También las tecnologías BCI permiten la rehabilitación de personas con desórdenes neurológicos como la epilepsia, el trastorno por déficit de atención o hiperactividad o la comunicación con personas con parálisis cerebral.[5]
Además, pueden encontrarse en el ámbito de la rehabilitación o sustitución motora orientadas a pacientes de ictus o de lesión medular.[4][6][7][8] Así lo ha demostrado Neuralink, que transmitió un video en vivo donde mostraba a una persona paralizada jugando ajedrez en una laptop.[9]
Un ejemplo sencillo de un dispositivo BCI en este ámbito es Mindball. Este dispositivo permite el movimiento de una pelota por un tablero y lo hace mediante la detección de relajación del usuario.
Una segunda aplicación en este ámbito es el del movimiento de un avatar en un entorno virtual donde las señales cerebrales pueden decidir si el avatar avanza o retrocede, gira a la derecha o a la izquierda, entre otras órdenes básicas como en el caso de Second Life.
Otro tipo de interfaz, además de interpretar acciones básicas, también se basan en el estado emocional de usuario, siendo capaces de reconocer la excitación, tensión, aburrimiento, meditación, frustración, inmersión como es el caso del dispositivo Emotiv EPOC.