Alexander Huth, profesor asistente de neurociencia e informática en la Universidad de Texas en Austin se ofreció como voluntario para ser sujeto de este estudio. Fue sometido a más de 20 horas en una máquina de resonancia magnética, que capturaba imágenes de su actividad cerebral.
Durante este proceso, el sistema de inteligencia artificial, Open AI, analizó los impulsos del cerebro de Huth hasta finalmente, predecir las palabras que este decía, solo con ver los diagramas de resonancia. Fue así como, la interfaz aprendió la forma en que los seres humanos construyen oraciones.
Para Huth y otros investigadores, esta tecnología podría ser favorable para personas con síndrome de “encerramiento” y quienes hayan sufrido accidentes cerebrovasculares. Este sistema les permitirá expresarse, en el caso que ya no puedan hablar.
“Esta es la primera demostración de que podemos obtener este nivel de precisión sin cirugía cerebral. Así que creemos que este es el primer paso en este camino para ayudar realmente a las personas que no pueden hablar sin que necesiten una neurocirugía”, dijo el profesor.
Por su parte, el profesor Tim Behrens de neurociencia computacional de la Universidad de Oxford calificó al estudio como “técnicamente extremadamente impresionante”. Según Behrens, esto abre una gama de posibilidades relacionadas a avances científicos que corresponden a la lectura de pensamientos.