NOTICIAS

24.10.25

Frenar la máquina: el llamado de los pioneros y los dilemas del futuro

Steve Wozniak, Elon Musk y decenas de referentes tecnológicos volvieron a firmar una carta pública pidiendo una pausa global en el desarrollo de los sistemas más avanzados de inteligencia artificial. No es la primera vez que lo hacen, pero esta vez el pedido adquirió más fuerza: los modelos de nueva generación superan la capacidad de control humano y, según los firmantes, podrían poner en riesgo la estabilidad social, económica y hasta la continuidad misma de la especie. El planteo puede sonar apocalíptico, pero refleja una inquietud que dejó de ser teórica.

El crecimiento vertiginoso de la inteligencia artificial generativa en apenas tres años cambió la escala del problema. Lo que comenzó como una herramienta de asistencia y automatización se transformó en un fenómeno con impacto transversal: altera el trabajo, la comunicación, la educación, la política y la producción cultural. Cada nueva versión de los modelos más poderosos implica un salto exponencial en capacidad de razonamiento, memoria y generación de contenido, pero también una pérdida proporcional de control y de comprensión sobre cómo esas redes neuronales toman decisiones. Nadie —ni siquiera sus creadores— puede explicar del todo qué sucede dentro de sus millones de parámetros.

De ahí que la advertencia no provenga de enemigos del progreso, sino de sus propios impulsores. Musk, Wozniak y otros tecnólogos emblemáticos saben mejor que nadie que la innovación sin regulación no es desarrollo, sino riesgo. No se trata de frenar la tecnología por temor, sino de garantizar que no se vuelva incontrolable. La historia de la ciencia está llena de hitos en los que la humanidad avanzó más rápido de lo que podía manejar: la fisión nuclear, la ingeniería genética, la explotación de los recursos naturales. La inteligencia artificial se suma a esa lista, pero con una particularidad inédita: es la primera tecnología capaz de modificar por sí misma la velocidad de su propio avance.

El debate sobre una pausa global parece utópico en un escenario dominado por la competencia geopolítica. Estados Unidos, China y la Unión Europea desarrollan sus propias estrategias de IA con fines militares, económicos y políticos. Frenar unilateralmente implicaría ceder terreno frente a los demás. Sin embargo, la ausencia de una coordinación mínima puede generar un escenario mucho peor: una carrera tecnológica sin freno, en la que cada avance responde más a la lógica de mercado o poder que a un propósito humano o ético.

América Latina observa esta discusión desde la distancia, pero no debería. La región adopta las tecnologías de IA a un ritmo acelerado, sin capacidad de producción propia y con escasos mecanismos de control. Los modelos que usamos —desde los más populares hasta los incorporados en plataformas de gobierno o educación— son desarrollados y alojados en otros países, bajo normativas que no nos incluyen. En ese contexto, hablar de “pausa” puede parecer ajeno, pero es justamente lo contrario: cuanto más dependiente es una sociedad de tecnologías que no controla, más urgente resulta pensar en regulaciones locales que establezcan límites, principios éticos y soberanía digital.

Los debates públicos se concentran más en los beneficios productivos o de eficiencia estatal que en los riesgos existenciales o de autonomía. Y aunque los escenarios de “colapso civilizatorio” puedan sonar exagerados, hay amenazas más cercanas y tangibles: la manipulación de información a escala masiva, la concentración del conocimiento en pocas corporaciones, la precarización laboral por automatización y la pérdida de control sobre los datos personales. Todos esos procesos ya están en marcha.

El pedido de los tecnólogos no apunta a detener la investigación, sino a instalar una pausa reflexiva, un tiempo para poner condiciones antes de seguir acelerando. Un alto que permita establecer reglas mínimas de seguridad, transparencia y evaluación de impacto social. En otras palabras, volver a colocar al ser humano en el centro del desarrollo tecnológico. Pero eso requiere voluntad política, cooperación internacional y una mirada de largo plazo que hoy parece escasa en un mundo guiado por la inmediatez.
Tal vez el verdadero riesgo no sea la inteligencia artificial en sí, sino la ceguera con la que la humanidad avanza hacia su integración total sin preguntarse qué está dejando atrás. Frenar, en este contexto, no es retroceder: es una forma de recuperar el control, de evitar que la carrera tecnológica se convierta en un acto de fe. Si el futuro está escrito en código, aún estamos a tiempo de decidir quién lo programa.