Clips De Película Reconstruidos A Partir De Ondas Cerebrales

{h1}

Usando los datos de fmri, los investigadores han reconstruido los clips de película solo a partir de la actividad cerebral de las personas que previamente vieron los clips. Esta cruda forma de leer la mente tal vez podría ser utilizada algún día para reproducir sueños o alucinaciones.

Bienvenido al futuro: los científicos ahora pueden mirar dentro del cerebro y reconstruir videos de lo que una persona ha visto, basándose solo en su actividad cerebral.

Los videos reconstruidos pueden verse como una forma primitiva, y un tanto borrosa, de lectura mental, aunque los investigadores están a décadas de ser capaces de descifrar cualquier cosa tan personal como recuerdos o pensamientos, si es que eso es posible. Actualmente, la técnica de lectura de la mente requiere poderosos imanes, horas de tiempo y millones de segundos de videos de YouTube.

Pero a largo plazo, se podrían usar métodos similares para comunicarse con pacientes con accidente cerebrovascular o pacientes en coma que viven en un estado "encerrado", dijo el investigador del estudio Jack Gallant, neurocientífico de la Universidad de California en Berkeley.

"La idea es que podrían visualizar una película de lo que quieren hablar, y usted podría decodificar eso", dijo Gallant a WordsSideKick.com.

Decodificando el cerebro

El equipo de Gallant ha decodificado el cerebro antes. En 2008, los investigadores informaron que habían desarrollado un modelo de computadora que toma datos de la actividad cerebral de imágenes de resonancia magnética funcional (IRMf), las compara con una biblioteca de fotos y escupe la foto que la persona probablemente estaba mirando. Cuando se tomaron las medidas de actividad cerebral. Esa técnica fue precisa al elegir la foto correcta nueve de cada 10 veces.

Pero la reconstrucción de video en lugar de imágenes fijas es mucho más difícil, dijo Gallant. Esto se debe a que la resonancia magnética funcional no mide la actividad de las células cerebrales directamente; Mide el flujo de sangre a áreas activas del cerebro. Este flujo de sangre ocurre mucho más lentamente que la comunicación rápida de los miles de millones de neuronas en el cerebro. [Dentro del cerebro: un viaje a través del tiempo]

Así que el investigador galante y postdoctoral Shinji Nishimoto construyó un programa de computadora para cerrar esa brecha. Parte del programa fue un modelo de miles de neuronas virtuales. La otra mitad fue un modelo de cómo la actividad de las neuronas afecta el flujo de sangre a las regiones activas del cerebro. Usando este puente virtual, los investigadores pudieron traducir la información del lento flujo de sangre al lenguaje veloz de la actividad de las neuronas.

Noche de cine… para la ciencia.

Luego vino la parte divertida: tres voluntarios, todos neurocientíficos en el proyecto, vieron horas de videoclips dentro de una máquina de resonancia magnética funcional. Los voluntarios externos no se utilizaron debido a la cantidad de tiempo y esfuerzo involucrados, y porque los neurocientíficos estaban muy motivados para centrarse en los videos, asegurando mejores imágenes cerebrales.

Usando los datos de imágenes del cerebro, Gallant y sus colegas crearon un "diccionario" que vinculaba los patrones de actividad cerebral a los videoclips individuales, como lo hizo su estudio de 2008 con las imágenes. Este traductor de películas cerebrales fue capaz de identificar la película que produjo una señal cerebral determinada el 95 por ciento de las veces, más o menos un segundo en el clip, cuando se le dieron 400 segundos de clips para elegir. Incluso cuando el modelo de computadora recibió 1 millón de segundos de clips, seleccionó el segundo correcto más del 75 por ciento del tiempo.

Con este preciso diccionario de clip de cerebro a película en la mano, los investigadores introdujeron un nuevo nivel de desafío. Le dieron al modelo de computadora 18 millones de segundos de nuevos clips, todos descargados al azar de videos de YouTube. Ninguno de los participantes del experimento había visto estos clips.

Luego, los investigadores analizaron la actividad cerebral de los participantes a través del modelo y le ordenaron que eligiera los clips con mayor probabilidad de activar cada segundo de actividad. El resultado fue una reconstrucción desde cero de la experiencia visual de la persona sobre la película. En otras palabras, si los participantes hubieran visto un clip que mostraba a Steve Martin sentado en el lado derecho de la pantalla, el programa podría observar su actividad cerebral y elegir el clip de YouTube que se parecía más a Martin sentado en el lado derecho de la pantalla..

Puedes ver los videoclips aquí y aquí. En el primer clip, el video original está a la izquierda, mientras que el promedio de los 100 clips más cercanos que se basan en la actividad cerebral está a la derecha. (Los promedios eran necesarios, y también la razón para el desenfoque, dijo Gallant, porque incluso 18 millones de segundos de los videos de YouTube no se acercan a capturar toda la variedad visual en los clips originales). El segundo segmento del video muestra el Clip original en la parte superior y reconstrucciones a continuación. La columna del extremo izquierdo es la reconstrucción promedio, mientras que las columnas restantes son videos individuales seleccionados por el programa como los más cercanos al original.

Viendo una película mental

Los videos promedio se ven como facsímiles fantasmales pero reconocibles de los originales. El desenfoque se debe en gran parte a que la biblioteca de clips de YouTube es muy limitada, lo que dificulta las coincidencias exactas, dijo Gallant.

"Dieciocho millones de segundos es realmente una fracción muy pequeña de las cosas que puedes ver en tu vida", dijo.

El método de lectura de la mente se limita solo a las áreas visuales básicas del cerebro, no a los centros de pensamiento y razón de funcionamiento superior, como la corteza frontal. Sin embargo, Gallant y sus colegas están trabajando para construir modelos que imiten otras áreas del cerebro. En el corto plazo, estos modelos podrían usarse para comprender cómo funciona el cerebro, así como los científicos ambientales usan modelos computarizados de la atmósfera para entender el clima y el clima.

A largo plazo, la esperanza es que dicha tecnología pueda usarse para construir interfaces cerebro-máquina que permitan a las personas con daño cerebral comunicarse al pensar y traducir esos pensamientos a través de una computadora, dijo Gallant. Potencialmente, podría medir la actividad cerebral durante los sueños o alucinaciones y luego observar estos estados fantasiosos en la pantalla grande.

Si esas predicciones se hacen realidad, dijo Gallant, podría haber problemas éticos involucrados. Él y sus colegas se oponen firmemente a medir la actividad cerebral de cualquier persona sin su conocimiento y consentimiento. En este momento, sin embargo, las escuchas secretas del cerebro son inverosímiles, teniendo en cuenta que la técnica requiere una gran máquina de resonancia magnética por resonancia magnética y la plena cooperación del sujeto.

No solo eso, sino que leer pensamientos, recuerdos y sueños puede que no sea tan simple como descifrar experiencias visuales simples, dijo Gallant. El vínculo entre cómo nuestro cerebro procesa lo que vemos y cómo procesa lo que imaginamos no está claro.

"Este modelo será un punto de partida para tratar de descodificar imágenes visuales", dijo Gallant. "Pero qué tan cerca del punto final es difícil de decir".

Puedes seguir WordsSideKick.com la escritora senior Stephanie Pappas en Twitter @sipappas. Sigue a WordsSideKick.com para conocer las últimas novedades y descubrimientos científicos en Twitter. @wordssidekick y en Facebook.


Suplemento De Vídeo: Hardcore Henry First-person Action Movie. Ilya Naishuller. 2015 HD. VOSE.




ES.WordsSideKick.com
Reservados Todos Los Derechos!
La Reproducción De Cualquier Permitió Sólo Prostanovkoy Enlace Activo Al Sitio ES.WordsSideKick.com

© 2005–2019 ES.WordsSideKick.com