Una Inteligencia Artificial (IA) logró decodificar la actividad cerebral de un hombre y usó esa información para generar imágenes de lo que el sujeto estaba viendo en una pantalla, como resultado de una serie de pruebas realizadas por investigadores de la Universidad de Osaka, Japón.
El equipo de investigadores, integrado por Yu Takagi y Shinji Nishimoto, utilizó Stable Diffusion (SD), un modelo de IA de aprendizaje profundo desarrollado en Alemania en 2022. Lo implementaron para analizar escáneres cerebrales de sujetos de prueba que mostraron hasta 10.000 imágenes dentro de una máquina de resonancia magnética.
Después de que Takagi y su socio de investigación construyeran un modelo simple para “traducir” la actividad cerebral a un formato legible, Stable Diffusion pudo generar imágenes de alta fidelidad que tenían un parecido asombroso con las originales.
La IA fue capaz de generar imágenes sin la necesidad de que les motraran otras con anticipación. “Realmente no esperábamos este tipo de resultado”, dijo Takagi.
Aunque este tipo de desarrollo no puede considerarse como una demostración de que la IA es capaz de “leer la mente”, Takagi explicó: “No podemos decodificar la imaginación o sueños. Creemos que esto es demasiado optimista. Pero, por supuesto, hay potencial en el futuro”.
Sin embargo, el experimento generó preocupaciones sobre cómo se podría usar dicha tecnología en el futuro, en medio de un debate más amplio sobre los riesgos que plantea la IA en general.
A pesar de su entusiasmo, Takagi reconoció que los temores en torno a la tecnología de lectura mental son válidos, dado que existe la posibilidad de un uso indebido.
“Para nosotros, los temas de privacidad son lo más importante. Si un gobierno o institución puede leer la mente de las personas, es un tema muy delicado”, dijo el investigador, y agregó: “Es necesario que haya discusiones de alto nivel para asegurarse de que esto no pueda suceder”.
La IA estaría lejos de poder leer la mente
La investigación de Takagi y Nishimoto generó mucho revuelo en la comunidad tecnológica, que se ha entusiasmado con los avances vertiginosos en IA, incluido el lanzamiento de ChatGPT, que produce un habla similar a la humana en respuesta a las indicaciones de un usuario.
El estudio fue aceptado en la Conferencia sobre visión por computadora y reconocimiento de patrones (CVPR), programada para junio de 2023, una ruta común para legitimar avances significativos en neurociencia.
Aun así, Takagi y Nishimoto son cautelosos a la hora de dejarse llevar por sus hallazgos y sostienen que existen dos cuellos de botella principales para la lectura mental genuina: la tecnología de escaneo cerebral y la propia IA.
A pesar de los avances en las interfaces neuronales, incluidas las computadoras cerebrales de electroencefalografía (EEG) que detectan ondas cerebrales a través de electrodos conectados a la cabeza de un sujeto, y fMRI, que mide la actividad cerebral al detectar cambios asociados con el flujo sanguíneo, los científicos creen que podrían pasar décadas hasta que se logren decodificar con precisión y fiabilidad experiencias visuales imaginadas.
En la investigación de Takagi y Nishimoto, los sujetos tenían que sentarse en un escáner fMRI por hasta 40 horas, lo cual requiere de mucho tiempo y de presupuestos abultados.
En un artículo de 2021, los investigadores del Instituto Avanzado de Ciencia y Tecnología de Corea señalaron que las interfaces neuronales convencionales “carecen de estabilidad de grabación crónica” debido a la naturaleza suave y compleja del tejido neuronal, que reacciona de manera inusual cuando entra en contacto con interfaces sintéticas.
“Soy optimista para la IA, pero no soy optimista para la tecnología del cerebro”, dijo Takagi, y concluyó: “Creo que este es el consenso entre los neurocientíficos”.
El investigador cree que actualmente sus experimentos con IA tienen poco margen de aplicación práctica, fundamentalmente porque el mismo método no puede aplicarse en todos los sujetos, ya que la forma y las reacciones del cerebro difieren entre individuos.
Sin embargo, cree que el un futuro podría usarse con fines clínicos, de comunicación o incluso de entretenimiento.