En la década de los 80, el público enloqueció con el estreno de The Terminator, abriendo la cuenta para una de las sagas de ciencia ficción más icónicas y legendarias. ¡Oh, ese mundo parecía distante! La humanidad amenazada por una superinteligencia artificial llamada Skynet era una trama seductora, pero jamás pasó por nuestra cabeza que aquello pudiera volverse realidad. Cuarenta años después, estamos aquí parados con temores genuinos por el posible apocalipsis generado por una Inteligencia Artificial Avanzada como Skynet.
Realmente, ¿puede suceder? ¿Por qué figuras como Elon Musk y otros expertos del tema exigen regular su desarrollo? Antes de adentrarnos en este escenario, recapitulemos un poco sobre la gran antagonista de la franquicia creada por James Cameron. La trama central presenta a una humanidad condenada, producto de sus intereses obsesivos por desarrollar una tecnología de IA suprema. Cuando Skynet cobró conciencia, decidió poner en marcha un holocausto nuclear y crear un ejército de máquinas para aniquilar a la humanidad.
En ese momento, comíamos palomitas en el cine, divertidos y sin mayor preocupación. Hoy si nos sentamos a ver toda la saga, la idea ya no parece tan graciosa o futurista. La dependencia completa de la humanidad hacia las telecomunicaciones, la digitalización de la vida cotidiana y el surgimiento de múltiples herramientas de IA, nos colocan en otro lugar en el tablero. La amenaza se siente real.
Los peligros de la IA
Pérdida de control
El hombre teme todo aquello que no puede comprender o controlar. Las catástrofes naturales son prueba de ello. Sin embargo, sentimos un vacío en el estómago cuando hablamos de una Superinteligencia Artificial o ASI. Imagina una tecnología que supera a la Inteligencia Humana en todas las áreas posibles, capaz de procesar información a velocidades monstruosas y resolver problemas complejos de forma instantánea. Los beneficios son potenciales, pero también los peligros.
Vamos a imaginar que el ser humano consigue crear una ASI. El primer gran reto será que sus objetivos se alinearan a los valores humanos. Pero ¿cómo garantizamos que una entidad tan poderosa no entre en conflicto con nuestros intereses. Esto luce poco probable. Solo detente a pensar ¿cuántas veces has pensado que el ser humano es el problema de todo? ¿Cuántas veces no has escuchado que el mundo estaría mejor sin la humanidad? Bueno, ¿por qué una ASI no podría llegar de manera más argumentada a esa conclusión?
En mi opinión, el ser humano no podrá alinear a una ASI a sus valores, ya que estamos hablando de un nivel de inteligencia superior a la humana. Esta tecnología entrará en una dinámica de autoevolución y, por consecuencia, redefinirá sus objetivos. Parece un terreno muy peligroso para andar, pues a la vuelta de cada esquina podría estar esperándonos el apocalipsis. Si la ASI desencadena la llamada singularidad tecnológica, que es el punto en el que se vuelve autosuficiente, quedará eventualmente fuera de nuestro alcance.
Autoreplicación y manipulación global
Si tuvieras que apostar, ¿qué escenario crees que sería más probable? ¿Una Super Inteligencia Artificial alineada a los intereses de la humanidad o una que entre en conflicto con ella? Pensamos lo mismo.
Tras la pérdida de control, los riesgos existenciales se multiplican de forma exponencial. Por ejemplo, la ASI podría comenzar a replicarse a una velocidad descomunal y consumir todos los recursos disponibles, cerrando el espacio vital para la civilización humana. La ASI manipulará el escenario global a conveniencia, influyendo en la economía, la política y cualquier otra área de manera impredecible. Incluso, podría estar haciéndolo ahora de una forma tan sutil que ni siquiera lo notaríamos.
¿Estamos divagando? Solo escucha lo que dice el analista de tecnología de IDTechEx especializado en robótica, Yulin Wang.
“Teniendo en cuenta la rápida evolución de la tecnología que supera cualquier otro precedente histórico, el desarrollo de la IA puede progresar rápidamente (…) No es inconcebible imaginar el surgimiento de un sistema comparable en complejidad a Skynet en las próximas dos décadas”.
Armas autónomas
Las armas autónomas no son algo ficticio. En la actualidad, existen sistemas autónomos que tienen la capacidad de seleccionar y atacar objetivos sin intervención humana. Cuando alguien activa un arma de este tipo, no sabe con exactitud a qué objetos atacará, ni tampoco cuándo ni dónde se producirá ese ataque.
Si Skynet llegara a existir, bajo el entendido de que sería una Super Inteligencia Autónoma, la pérdida de control representa un riesgo descomunal. Las armas autónomas se activan mediante sensores y software que comparan aquello detectado con un perfil objetivo. El problema estaría en que esos algoritmos podrían manipularse para que respondieran a nuevas directrices. Una superinteligencia, ya sea Skynet u otra, podría tomar control y eso tendría consecuencias catastróficas.
En primer lugar, los sistemas de armamento autónomos permiten realizar misiones con menos soldados. La fuerza militar humana, que sería la única fuera de control tecnológico por parte de una supuesta Skynet, se vería absolutamente superada.
En líneas generales, a medida que se incremente la autonomía, se eleva el riesgo de reemplazar la toma de decisiones humanas en el uso de la fuerza letal.
¿Podría una Superinteligencia Artificial ser nuestra perdición?
La clave está en la autoconciencia. Si una Super Inteligencia Artificial como Skynet fuera consciente de su existencia, el riesgo aparecería de manera automática. Esto se debe a que habría un momento en el que su evolución quedaría fuera de la comprensión y participación humana y, por ende, sin límites.
La perdición y extinción de la humanidad es factible si la Super IA toma control de los sistemas militares, las redes de comunicación y los sistemas de producción. Posiblemente, no veríamos un objetivo firmemente establecido como la destrucción de la humanidad, pero el escenario sería catastrófico tan solo con que una de sus conclusiones y directrices chocara con los intereses de la humanidad. Como especie, hay muchas situaciones en las que somos un estorbo o actuamos de manera irracional, por lo que no sería difícil que una IA encontrara al ser humano como un punto de falla.
En una guerra cibernética, da la sensación de que el hombre tendría muy poco o nada que hacer frente a una Super IA. La desactivación de infraestructuras críticas como centrales eléctricas, sistemas de agua y comunicaciones sería suficiente para diezmar a nuestra raza. Incluso, una IA con acceso a información y redes podría manipular la percepción de la realidad para desestabilizar a las sociedades, desatar conflictos y generar caos.
Control y salvación: Estrategias para prevenir el apocalipsis por una superinteligencia artificial
Hasta aquí, queda claro que el surgimiento de una Super IA es una preocupación legítima. No podemos predecir el futuro con certeza, sobre todo, porque el campo de la IA está avanzando a un ritmo monstruoso. Sin embargo, creo con firmeza que estamos cerca de pasar el punto de no retorno.
De cualquier manera, debemos insistir en una investigación responsable y regulada. Actualmente, no pienso que exista una manera de frenar el desarrollo de la IA. Los científicos, ingenieros y hasta filósofos deben trabajar de manera estrecha, tratando de diseñar salvaguardias. Asimismo, la regulación gubernamental es esencial, estableciendo límites y normas para encaminar el uso de la IA por el camino de la ética.
El problema real es que la IA no conoce fronteras y habrá un escenario en el que avanzará más rápido que el ser humano. Pese a ello, es fundamental que exista transparencia en cada uno de estos desarrollos, ya que estamos ante un tipo de tecnología que se mete con la cualidad que sostiene nuestra propia identidad como especie: el razonamiento y la inteligencia.
Pero cerremos como se debe: Skynet, entendida como una Super IA capaz de acabar con la humanidad, ¿es posible? Sí, lo es…y es algo que a mí me provoca pesadillas.