Resumen: Lo más importante
- Geoffrey Hinton advirtió sobre la amenaza que representa el desarrollo de la IA.
- El ganador del Nobel de Física criticó que empresas de IA antepongan intereses financieros.
- IA podría escapar del control humano, aseguró el pionero de esta clase de tecnologías.
Geoffrey Hinton advierte sobre un futuro trágico causado por la IA
Desde que ChatGPT irrumpió en el escenario digital, la Inteligencia Artificial (IA) se volvió tema de debate constante. La proliferación de esta clase de herramientas generó un furor que está haciéndonos perder el foco de lo importante. Esa es la advertencia lanzada por Geoffrey Hinton, uno de los padres de la IA y ganador del Premio Nobel de Física el año pasado (junto con John Hopfield).
En una entrevista que ofreció a CBS, Hinton no ocultó su temor y preocupación por el desarrollo insensato de la IA. El científico comparó la situación con la crianza de un cachorro de tigre. En primera instancia, el animal luce tierno e inofensivo, pero todo cambiará cuando crezcan los colmillos y las garras. La amenaza existe desde este momento, por lo que lo mejor siempre será actuar de forma preventiva.
El padre de la IA, una voz autorizada en el campo, estima que existe entre un 10% y 20% de probabilidades de que la IA escape del control humano. Su advertencia provoca que nuestra piel se erice, ya que pinta un panorama apocalíptico y fatalista. Geoffrey Hinton considera que el desarrollo de la IA avanza a un ritmo tan frenético y fuera de toda regulación que las consecuencias podrían llegar de manera sorpresiva en poco tiempo.
Geoffrey Hinton trató de no ser alarmista, pero la sugerencia es clara: Los gobiernos y las empresas deben tomarse seriamente la regulación de la IA para escapar de los peligros y las amenazas potenciales. En pocas palabras, el tamaño de la inversión para su desarrollo debe ser equiparable a los recursos destinados para su regulación. Es urgente caminar sobre maderas firmes, especialmente, si no sabemos qué tan profundas son las aguas debajo del puente.
“La gente no sabe lo que se viene”, advirtió.
En la conversación, Geoffrey Hinton lanzó una fuerte crítica para Google debido a su apertura para colaborar con proyectos militares asociados a IA. A su parecer, la postura de la compañía, aunado a la falta de regulación y los intereses económicos voraces, es la peor mezcla de variables para impulsar el desarrollo de la IA. El resultado será incontrolable, inesperado y desastroso, al menos, es una posibilidad.
¿Quién es Geoffrey Hinton y por qué su opinión importa?

Geoffrey Hinton es un científico especializado en la computación, la cognición y la psicología. En 2018, recibió el galardón del Premio Turing junto con Yishua Bengio y Yan LeCun por un trabajo sobre aprendizaje profundo. Además, el 2024 ganó todavía mayor reconocimiento dentro de diferentes círculos tras recibir el Premio Nobel de Física.
Hinton es conocido como el “padrino” de la Inteligencia Artificial, ya que ha realizado aportaciones significativas al campo. Entre los años 2013 y 2023, dividió su tiempo profesional entre Google y la Universidad de Toronto; sin embargo, decidió abandonar la empresa del famoso buscador debido a preocupaciones sobre los riesgos de desarrollar IA de manera irresponsable.
Los comentarios de Geoffrey Hinton no sorprenden del todo en este momento. El año que dejó su puesto en Google dijo que el motivo era para poder expresar libremente sus preocupaciones sobre IA. En esa coyuntura, estimó que el desarrollo de la IA General estaba a 30 o 50 años de distancia, pero pronto cambió de opinión al considerar que estaría lista en menos de dos décadas. Aseguró que su irrupción causaría una fuerte sacudida al mundo, incluso más profunda que la Revolución Industrial o la invención de la electricidad.
Este año, expresó:
“Mi mayor temor es que, a largo plazo, resulte que este tipo de seres digitales que estamos creando son solo una mejor forma de inteligencia que las personas […] Ya no seríamos necesarios […] Si quieres saber cómo es no ser la cúspide de la inteligencia, pregúntale a una gallina”.
El riesgo de AGI, una preocupación realista

Imaginar una IA que pueda acabar con la humanidad o que ponga en riesgo su supervivencia suena a ciencia ficción. Ese es un problema actual que deberíamos empezar por resolver. Lo primero que hay que hacer es asumir que la posibilidad existe. Escucharlo decir que la probabilidad de que esto ocurra es de entre el 10% o el 20% es motivo suficiente para sentir escalofríos.
La Inteligencia Artificial General (AGI) es un tipo de IA que tiene la capacidad de entender, aprender y aplicar conocimiento de manera similar a un ser humano. En comparación con la IA estrecha o débil, la AGI es capaz de realizar cualquier tarea cognitiva que nuestra especia pueda ejecutar. Entre sus características está el aprendizaje autónomo, el razonamiento y la comprensión, la transferencia de conocimiento y la interacción natural.
Los expertos en el campo coinciden en que la AGI representa un avance significativo, pero que conlleva riesgos importantes para la sociedad, la economía y la seguridad global. Por ejemplo, hay un escenario donde el ser humano perdería control sobre ella. Si la AGI no está alineada con los valores y objetivos humanos, podría tomar decisiones perjudiciales. Para varios especialistas, no es descabellado pensar que la AGI sería capaz de desarrollar armas autónomas o ejecutar ciberataques sofisticados sin necesitar autorización humana.