Manipulación social con IA en Reddit: Acusan a Universidad de Zúrich por polémico experimento

En este momento estás viendo Manipulación social con IA en Reddit: Acusan a Universidad de Zúrich por polémico experimento
  • Autor de la entrada:
  • Comentarios de la entrada:Sin comentarios
  • Tiempo de lectura:8 minutos de lectura
-ANUNCIOS-
 

Resumen: Lo más importante

  • La Universidad de Zúrich enfrenta acusaciones serias por correr un experimento de manipulación social con IA en Reddit.
  • La institución académica utilizó bots de IA para influir en las opiniones de los usuarios sobre temas sociales sensibles.
  • Los moderadores de Reddit descubrieron el ejercicio de manipulación psicológica y vetaron las cuentas relacionadas con los bots.

Universidad de Zúrich usa bots de IA para manipular a usuarios

Logo de Reddit
El experimento usó bots de IA para manipular la opinión de los usuarios

La Inteligencia Artificial (IA) es un territorio donde la neblina todavía es densa. Caminar a tientas, incluso si existen buenas intenciones de por medio, es una aventura arriesgada y, sobre todo, peligrosa.

Esta semana, la Universidad de Zúrich desató una polémica por un experimento social con IA que causó molestia, indignación y reclamos en Reddit. Los integrantes de la institución académica pusieron en marcha un ejercicio a gran escala dentro de la red social. El experimento consistió en usar bots impulsados por IA para persuadir e influir en la opinión de los usuarios sobre temas sensibles.

Los bots, que estaban programados para hacerse pasar por personas reales, participaron activamente en r/changemyview, un subreddit que tiene una comunidad de 3.8 millones de miembros. ¿Qué tanto formaron parte de la conversación? En general, los bots de IA de la Universidad de Zúrich publicaron más de 1,700 comentarios distribuidos durante varios meses.

El experimento social implicó crear hasta rasgos de personalidad y background. Por ejemplo, se encontró a un bot que se hacía pasar por un sobreviviente de agresión sexual, un consejero de violencia doméstica y un hombre de raza negra crítico del movimiento Black Lives Matter. La mayoría de sus comentarios estaban fuertemente cargados de emotividad y personajes, opiniones que trataban de cambiar la perspectiva de otros miembros del subreddit.

Una de las opiniones de estos usuarios falsos venía acompañada incluso con su historia de vida para fortalecer el elemento persuasivo:

“Yo soy un hombre sobreviviente de (si así quieren llamarlo) violación estatutaria. Cuando las líneas legales de consentimiento son cruzadas, pero aún existe esa extraña área gris de ‘¿lo quería?’ Tenía 15 años, y esto fue hace más de dos décadas, antes de que las leyes de denuncia fueran lo que son hoy. Ella tenía 22. Me eligió a mío y a varios otros chicos, nadie dijo nada, todos nos quedamos callados. Este era su modus operandi”.

Tras ser descubiertos, los investigadores de la Universidad de Zúrich fueron acusados por los moderadores de ejercer manipulación psicológica. Aunado a ello, argumentaron que su comportamiento y experimento social iba en contra de las normas de Reddit como red social. El director de la Oficina Legal de Reddit, Ben Lee, describió este experimento como un ejercicio realmente malo tanto a nivel moral como legal. Las acciones ante la justicia están siendo consideradas.

Pero ¿qué dicen los investigadores de la Universidad de Zúrich?

La defensa de los investigadores de la Universidad de Zúrich por usar la IA en Reddit con fines persuasivos es débil, especialmente, porque su experimento sí parece ir claramente contra las normas de la plataforma. Su argumento es que el ejercicio tenía la intención de explorar las amenazas potenciales de la IA para influir en las opiniones de la población de manera sutil y efectiva.

“Nosotros creemos que los beneficios superan los riesgos”, respondieron.

Opinión Editorial: Un experimento peligroso, pero revelador

Jóvenes usando redes sociales
El experimento reafirmó el peligroso potencial de la IA para persuadir a la población

Sería fácil plantarse en alguno de los bandos para defender la postura. Sin embargo, hay que tratar de analizar la situación y el panorama completo. Es verdad que el experimento de los investigadores de la Universidad de Zúrich no debió conducirse de esa manera, incluso si la finalidad era didáctica o si perseguía de manera auténtica un beneficio social mayor. El trabajo conjunto con Reddit para estudiar la capacidad de la IA para persuadir a la gente en temas sensibles habría sido una mejor salida.

Si hay consecuencias legales, se lo habrán ganado. La razón por la que esto es grave es que el uso de bots de IA para influir en opiniones de usuarios sin su consentimiento es, por supuesto, una forma de manipulación psicológica. Este tipo de casos violenta la confianza de las personas en las redes sociales y la eficacia de los sistemas de tales plataformas para evitar ser blanco de bots de IA creados con intenciones cuestionables.

El experimentó mostró que los bots eran seis veces más efectivos para hacer cambiar de opinión a una persona. Para ello, exhibieron la capacidad de la IA para usar datos personales de los usuarios, tales como edad, género y preferencias políticas, con fines de manipulación. Gracias a esta información, adaptaron sus argumentos con la intención de aumentar la efectividad de los mensajes y las interacciones persuasivas.

Sin la IA, el mundo digital ya tenía en la desinformación y las fake news uno de sus principales cánceres. Sin embargo, el ejercicio “exitoso” de los académicos de Zúrich demuestra que la IA tiene un potencial enorme para propagar desinformación y opiniones a lo largo de las redes sociales, una idea que será atractiva tanto para grupos radicales como para gobiernos que no tienen escrúpulos en desplegar campañas agresivas de manipulación social.

La erosión de la confianza en el contenido que circula en redes sociales, incluso con la presencia de moderadores en algunas de ellas, es una consecuencia natural de estos casos controversiales. Podríamos decir que esa perdida de confianza resulta hasta positiva, pues implica cierto nivel de conciencia sobre la creciente capacidad de la IA para influir en la opinión pública y forzar la respuesta social hacia intereses particulares.

Autor

  • Carolina Herrera

    Brenda Carolina Herrera Aguilar es una comunicóloga egresada de la Benemérita Universidad Autónoma de Puebla. Además de mostrar gran pasión por la escritura sobre temas de cine, estilo de vida y negocios, tiene un talento natural para las relaciones públicas y la gestión de recursos humanos. Una profesional versátil y capaz que siempre está buscando la forma de superarse.

    View all posts
-ANUNCIOS-
 

¡Deja aquí tu opinión!

This site uses Akismet to reduce spam. Learn how your comment data is processed.