Conciero Ricardo Montaner Zacatecas
Mariano Tello Opinión de Mariano Tello

ESCRITORIO DIGITAL | ENTRE EL MIEDO Y LA LUCIDEZ: ¿LA IA SERÁ EL FIN DEL MUNDO?

“La tecnología no es buena ni mala, ni tampoco neutral” — Melvin Kranzberg 💻⚙️📡

Hablemos de algo incómodo:

En 2023, una declaración firmada por científicos, investigadores y líderes de la industria tecnológica advirtió que el riesgo de extinción asociado a la inteligencia artificial debía tomarse tan en serio como el de una guerra nuclear o una pandemia global. No fue una voz marginal. Fue, digamos, la primera señal.

El mensaje no implicaba un colapso inminente de nuestra especie. Pero sí revelaba algo más importante: incluso quienes están construyendo esta tecnología reconocen que avanzamos hacia un territorio que no comprendemos del todo.

Y ahí es donde comienza el problema

A diferencia de otras revoluciones tecnológicas, aquí no solo estamos construyendo herramientas. Estamos construyendo sistemas cuyo comportamiento, en ciertos niveles, empieza a escapar de nuestra capacidad de explicación completa. No porque sean “misteriosos” en un sentido místico, sino porque su complejidad supera nuestra intuición.

En términos más claros: sabemos que funcionan, pero no siempre sabemos por qué toman ciertas decisiones. Eso debería incomodarnos más de lo que lo hace.

El físico del MIT, Max Tegmark, plantea en su obra distintos escenarios sobre el futuro de la inteligencia artificial —doce posibles desenlaces que van desde la convivencia con la IA, hasta la sustitución total de la humanidad. No son predicciones. Son advertencias intelectuales: ejercicios para obligarnos a pensar antes de que la realidad nos alcance.

Algunos de esos escenarios son particularmente reveladores:

• Un mundo donde la inteligencia artificial optimiza todo para el bienestar humano… pero termina confinándonos en entornos controlados —físicos o virtuales— donde somos “felices”, pero ya no somos libres.

• Un escenario en el que los sistemas se vuelven tan eficientes que desplazan progresivamente la toma de decisiones humanas, no por imposición, sino por conveniencia. Delegamos tanto, que dejamos de ser necesarios.

• Y otro, quizá más incómodo, donde la humanidad no desaparece, pero queda en un segundo plano: preservada como una mascota, estudiada  por una inteligencia superior con objetivos propios.

No se trata de elegir cuál es más probable. Se trata de entender que todos comparten un punto de partida: la pérdida gradual de nuestro control. Uno de los errores más comunes en esta conversación es imaginar que el riesgo proviene de una inteligencia artificial malvada. Es una idea cómoda, casi cinematográfica. Pero es equivocada.

El riesgo real —como han señalado distintos investigadores— no es la malicia, sino la desalineación: sistemas altamente competentes persiguiendo objetivos que no coinciden con los nuestros.

No olvidemos que la historia de la vida en la Tierra no solo está marcada por guerras entre especies, sino también por reemplazos silenciosos. La extinción de las especies es una historia común que no es producto del odio. Ha sido consecuencia de asimetrías y abusos.  Y le seguimos dando más inteligencia, más capacidad.

Ese es el punto incómodo

Pero hay algo aún más inquietante: estamos otorgando poder a sistemas que no comprendemos completamente, y lo estamos haciendo de forma acelerada. Automatizamos decisiones. Delegamos criterio. Optimizamos procesos. Y poco a poco, dejamos de cuestionar.

Ahora bien, reconocer este riesgo no obliga a caer en el pánico. Pero ignorarlo sí sería un error. Porque aquí aparece una tensión que pocas veces se discute con seriedad: la velocidad. La inteligencia artificial avanza más rápido que nuestra capacidad institucional para entenderla, y mucho más rápido que nuestra capacidad política para regularla. Estamos intentando gobernar una tecnología del siglo XXI con marcos mentales —y legales— del siglo XX.

Y eso no es sostenible.

Hablar de regulación no debería interpretarse como un freno al progreso, sino como una condición para su viabilidad. Las tecnologías que transforman el mundo —la aviación, la medicina, la energía— no sobrevivieron sin reglas. Se consolidaron gracias a ellas.

El dilema, sin embargo, es delicado.

Regular demasiado pronto puede sofocar la innovación. Regular demasiado tarde puede hacer irrelevante cualquier intento de control. Por eso, la conversación que necesitamos no es ideológica. Es estratégica. No se trata de decidir si somos optimistas o pesimistas. Se trata de si somos capaces de pensar con suficiente seriedad sobre las consecuencias de lo que estamos construyendo.

Porque la inteligencia artificial no es solo una herramienta más. Es, potencialmente, una tecnología que redefine la relación entre capacidad, control y poder.

Y esa conversación apenas está comenzando.

Quizá la pregunta correcta no sea si la inteligencia artificial representa un riesgo existencial.  La pregunta es otra: “¿en qué momento dejamos de entender aquello a lo que decidimos entregar tanto poder?”

Comparte esta nota:

Noticias Relacionadas