Hasta hace algunos años, no tenía problema en sentarme a ver la saga de Terminator. La guerra entre hombres y máquinas era un gancho atractivo. Hoy miro esa franquicia de acción de una manera distinta. ¿Es posible que eso ocurra? ¿Habrá un día en el que las computadoras se revelarán contra el hombre? Aquí es donde cobran sentido las palabras de Paul Christiano, quien alertó sobre la amenaza que representa la IA para la humanidad.
Su pasado dentro de las filas de la empresa de Sam Altman es lo que termina dándole fuerza a sus palabras. Recuerda que se trata de la compañía propietaria de ChatGPT, una de las más dominantes en este etapa de auge e interés en la IA generativa. Durante una intervención en el podcast Bankless, el ingeniero estadounidense comentó que el escenario de una IA doblegando a la humanidad no es cosa de películas.
“Creo que hay entre un 10% y 20% de posibilidades de que la IA se apodere de la humanidad, y que muchos o la mayoría de los humanos mueran (…) Me lo tomo muy en serio”.
-ANUNCIOS-  
Christiano piensa que el desarrollo de la IA implica rascar demasiado profundo en terreno desconocido. No es la primera que escuchamos eso.
¿Cómo sería el fin de la humanidad a cargo de la IA?
De manera concreta, Paul Christiano fue cuestionado sobre qué tan posible es que ocurra un escenario de catástrofe total como lo plantea Eliezer Yudkowsky. En diferentes medios, el teórico de la decisión explora por qué el hombre tiene que actuar de inmediato para asegurarse de que los sistemas de IA más inteligentes que el hombre no conlleven a la extinción.
Paul Christiano, quien trabajó en el equipo de alineación de modelos lingüísticos de OpenAI, dejó clara su postura sobre los peligros de la IA. Coincide con Yudkowsky en que la IA podría acabar con la humanidad, pero difiere en la prontitud con que esto ocurriría.
“Tiendo a imaginar que sería algo más parecido a un año de transición de los grandes sistemas de IA. De ahí, a una especie de cambio acelerado, seguido de una mayor aceleración, etcétera (…) Creo que una vez que se tiene esa visión, entonces, más o menos, muchas cosas pueden parecernos problemas relacionados con la IA porque suceden muy poco después de construir esta tecnología”.
Sus palabras son reveladoras y estremecedoras. Esperemos que sus declaraciones recientes no se vuelvan una predicción. Paul Christiano cree que la posibilidad de que la IA termine con la humanidad ascenderá hasta el 50% en cuanto se alcance la IA fuerte o la Super IA.
“En general, tal vez estaremos llegando más a un momento de 50% de posibilidades de catástrofe poco después de tener sistemas de IA de nivel más humano”.
Entonces, no importa demasiado si respaldas las ideas de Yudkowsky o Christiano. Ambos reconocen que el fin de la humanidad está en el horizonte como un escenario probable. Así es como las iniciativas como la carta que exigía poner en pausa el desarrollo de la IA durante algunos meses cobran todo el sentido del mundo.
¿Por qué importa la advertencia de Paul Christiano sobre IA y la humanidad?
Históricamente, el ser humano se deja arrastrar por su euforia hacia el progreso y el desarrollo tecnológico. Sin embargo, sabemos bien que las tecnologías se han utilizado para bien y para mal. Con la IA no ocurre diferente. La Inteligencia Artificial tiene el potencial de mejorar nuestras vidas en muchos campos, pero no es la Mano de Midas. Es crucial que seamos conscientes de los riesgos asociados. Debemos aceptar que pudiera dar un giro y causar un daño irreparable a la humanidad.
Paul Christiano llama a no tomar posturas burlescas o irracionales. El exinvestigador de OpenAI aceptó que lo más probable es que la IA no venga y nos aniquile. En cambio, debemos comenzar por sopesar los riesgos de haber desplegado la IA en todos lados. Claramente, la debacle de la humanidad es un escenario probable dentro de un mundo donde las decisiones más importantes y trascendentales están a cargo de la IA.
Incluso si adoptamos una postura menos apocalíptica, los riesgos asociados al desarrollado no regulado de la Inteligencia Artificial son una realidad. Estos sistemas y herramientas podrían ser empleados por actores malintencionados, además de que saldrán sistemas complejos que podrían presentar fallas de maneras inesperadas. Si somos incapaces de predecir o influir en los resultados, existe la posibilidad de enfrentar consecuencias catastróficas e imprevistas.
¿Qué piensas de la advertencia de Paul Christiano sobre los riesgos de la IA y las posibilidades de que acabe con la humanidad? ¡Te leo en la zona de comentarios!