
Un grupo de investigadores de la Universidad de Stanford logró, por primera vez, decodificar la voz interna de personas que habían perdido la capacidad de hablar. El avance, publicado en agosto de este año en la revista Cell, utilizó implantes cerebrales y modelos de inteligencia artificial para traducir pensamientos en palabras con un nivel de precisión inédito hasta la fecha. Lejos de ser un ejercicio de ciencia ficción, este logro representa una ventana hacia nuevas formas de comunicación para quienes viven con una parálisis severa.
El estudio se realizó en cuatro pacientes que, debido a un accidente cerebrovascular o enfermedades neurodegenerativas, no podían articular el habla. Se les implantaron microelectrodos en la corteza motora, la zona del cerebro vinculada al control del habla. Mientras intentaban pronunciar o simplemente imaginaban palabras, un modelo de IA entrenado con esas señales neuronales fue capaz de reconstruir el discurso interno con hasta un 74% de precisión. Para garantizar que no se activara de manera involuntaria, los investigadores incorporaron una especie de “contraseña mental”: sólo cuando los pacientes pensaban en una frase acordada (curiosamente la elegida fue “chitty chitty bang bang”), el sistema habilitaba la decodificación.
La dimensión terapéutica es evidente: devolver la posibilidad de comunicarse a quienes la perdieron transforma no sólo su vida diaria, sino también la forma en que se relacionan con el mundo. Pero este avance abre también una serie preguntas que no son técnicas, sino éticas. ¿Qué ocurre con la privacidad de los pensamientos cuando una máquina puede leerlos y traducirlos? ¿Quién regula qué se capta, qué se almacena, quién accede a esos datos? La neurociencia y la inteligencia artificial, al entrelazarse, ponen en primer plano un concepto que ya ha circulado por estas columnas a lo largo de 2025: los neuroderechos. Estos son el derecho a la intimidad mental, a la identidad personal y a no ser manipulado en la raíz misma del pensamiento.
En América Latina este debate recién comienza. Chile fue pionero en 2021 al aprobar una reforma constitucional que menciona explícitamente la protección de la integridad cerebral frente a los avances tecnológicos. En Argentina, aunque se discute sobre inteligencia artificial en ámbitos como la educación o el trabajo, todavía no existe un marco legal que contemple las implicancias de tecnologías que interactúan directamente con la mente. La pregunta no es lejana: la velocidad de la innovación suele desbordar la capacidad regulatoria y pensar reglas antes de que estas tecnologías desembarquen en hospitales o clínicas locales puede evitar riesgos futuros.
La otra arista es la desigualdad. Estos desarrollos se producen en centros de investigación de élite, con acceso a infraestructura y financiamiento que difícilmente se replican en países periféricos. El riesgo es que, mientras en Estados Unidos o Europa se discute cómo proteger la privacidad mental de pacientes con acceso a estos implantes, en América Latina millones de personas con discapacidades del habla siguen sin dispositivos básicos de apoyo. Como también ya se ha mencionado varias veces, la innovación, si no se acompaña de políticas de equidad, puede convertirse en una nueva fuente de exclusión.
Lo ocurrido en Stanford es un recordatorio de que la inteligencia artificial no solo escribe textos o responde preguntas: también puede entrar en diálogo con la mente humana en su estado más íntimo. La promesa es enorme y profundamente humana: devolver la voz. El desafío es igual de grande: evitar que esa voz se convierta en un dato más en un sistema sin regulaciones claras, o que quede reservada para quienes puedan pagarla. La frontera que se abre no es tecnológica, sino social y ética. Y es en ese terreno donde Argentina y la región tienen que empezar a dar la discusión.
