#IADondeVamos: 7 Riesgos de la IA para tu Privacidad en el Mundo Digital

En este momento estás viendo #IADondeVamos: 7 Riesgos de la IA para tu Privacidad en el Mundo Digital
Riesgos de la IA contra la Privacidad de Usuarios
  • Autor de la entrada:
  • Comentarios de la entrada:Sin comentarios
  • Tiempo de lectura:11 minutos de lectura
-ANUNCIOS-
 

La Inteligencia Artificial (IA) es un campo en el que la humanidad camina a tientas. Todos hablan de ella, pero nadie puede entender o imaginar el impacto que tendrá en todos los aspectos de la vida social. Pese a que hay una discusión abierta en múltiples frentes, la mayoría coincide en que el desarrollo y uso de la IA debe regularse. Esta vez, queremos presentarte 7 riesgos de la IA para tu Privacidad dentro del mundo digital.

La IA desregulada traerá problemas serios en este ámbito. No estamos especulando, ni viendo a futuro ¡es una realidad! Si vivimos una serie de violaciones a la privacidad en los albores, imagina lo que ocurrirá cuando haya tecnologías más avanzadas y completas. Un punto positivo es que varias universidades e institutos están realizando estudios e investigaciones que pretenden poner este tema al centro de la mesa.

Riesgos de la IA para la Privacidad de los Usuarios

Hacker
Los avances en IA están derivando en ataques cibernéticos más sofisticados

En este apartado, te compartimos 7 riesgos de la IA que atentan contra la privacidad de los usuarios.

-ANUNCIOS-
 

Recopilación masiva de datos

La recopilación de datos e información siempre ha sido un campo de guerra. Empresas, gobiernos y cibercriminales buscan servirse de los datos de los usuarios para diferentes propósitos (tanto legales como ilegales). Los avances en sistemas de IA revolucionarán esta área, ya que tendrán un rol fundamental en dichas tareas. El pronóstico más simple advierte sobre una mayor automatización y optimización de los diferentes procesos.

Si en el estado actual de las cosas tenemos muchas dudas, las preocupaciones éticas en la era de la IA son aún mayores. No tendremos seguridad ni certeza sobre qué datos recopilan las tecnologías de IA, ni como se utilizarán esos datos. La opacidad en los algoritmos utilizados, tanto para el entrenamiento como para el uso de la información, solo son la punta del iceberg. Los escándalos de Facebook Analytica serán “cosa de niños”.

Ante la falta de regulación, las técnicas para la recolección y procesamiento de datos mediante IA suelen ser invisibles para los individuos. Incluso, las instituciones reguladoras de la privacidad de los usuarios no presionan demasiado en ese rubro. De manera inevitable, eso genera brechas importantes que, con frecuencia, conducen a violaciones a la privacidad de los internautas.

Reconocimiento facial

El reconocimiento facial es una tecnología utilizada con frecuencia para la seguridad digital. En muchos casos, la seguridad biométrica es vista como la de mayor fiabilidad para la identificación de los individuos. Esto se debe a que funciona mediante el análisis de rasgos y características faciales únicos (forma de la cara, posición de los ojos, nariz y boca). La IA también cobrará mayor protagonismo en esta clase de sistemas para acelerar la recopilación y optimizar el uso de los datos biométricos.

Pero, la falta de transparencia en el uso de estos datos dentro de dichos sistemas abrirá un mar de dudas. De la misma forma, será una herramienta poderosa que permitirá a algunos grupos fortalecer sus sistemas de vigilancia masiva y seguimiento de las personas en tiempo real. ¿No parece grave? Imagina si se utilizara para coartar la libertad de expresión o de libre asociación.

Deepfakes: Manipulación y Desinformación

El deepfake es un video, imagen o audio generado que imita la apariencia o la voz de una persona. Los avances en IA están ocasionando que cada vez sea más difícil identificar deepfakes de los videos o audios originales. Además, los deepfakes pueden generarse por tecnologías de IA en directo. ¡Representan un peligro enorme! Esto se debe a que tergiversan la realidad, abriendo la puerta a varios delitos como el fraude en línea, la desinformación, los engaños y la pornografía de venganza.

Incluso, la proliferación de los deepfakes impulsada por los sistemas de IA está asociada al punto anterior. Será uno de los riesgos de IA más graves para la privacidad de los usuarios. De forma concreta, supondrá un reto para los sistemas de verificación en línea que se basan en el reconocimiento facial o la voz. Existen estudios y experimentos digitales que demuestran que la mayoría de las APIs de reconocimiento faciales pueden ser burladas mediante el uso de deepfakes.

Desinformación y Propaganda: Manipulación Social

Otro de los riesgos de la IA contra la privacidad de los usuarios apunta a una mayor proliferación de las noticias falsas y la manipulación de la información. Mediante técnicas de IA para la recopilación y análisis de datos privados, algunos grupos podrían desplegar campañas efectivas basadas en fake news. En un posicionamiento conjunto, el Foro Económico Internacional reconoció que es un problema que amenaza con erosionar la democracia y polarizar a la sociedad.

Los autores de ese documento señalaron que los chatbots como ChatGPT permiten la creación de contenido sofisticado que puede usarse para la manipulación de grupos sociales. Si las fake news ya eran un problema en la era digital, los sistemas y herramientas de IA están automatizando su creación. Se trata de una crisis que ya se percibe en el ecosistema digital, pues resulta fácil encontrarse con artículos o websites completos construidos con dicho propósito.

Un ejemplo del peligro es lo que sucedió en Eslovaquia, donde se reportó la clonación de la voz de políticos en temporada electoral para recrear situaciones que nunca tuvieron lugar. Asimismo, se especula que los gobiernos de varios países están utilizando dichos sistemas y tecnologías para fines propagandísticos. Eso es alarmante desde cualquier punto de vista, tomando en cuenta que deberían ser las instancias que pujen por una regulación estricta.

Ciberseguridad: Nuevas vulnerabilidades

Riesgos de la IA contra la Privacidad de Usuarios
La falta de regulación sobre la IA aumenta el riesgo contra la privacidad de los usuarios

Los especialistas aseguran que los avances en IA aumentarán de manera drástica el volumen y la sofisticación de los ataques cibernéticos. Habrá un incremento de los ataques dirigidos contra organizaciones y empresas, pero también contra usuarios convencionales para robar información sensible como datos financieros.

Los modelos de lenguaje largos han transformado la ciberseguridad por completo. En el Foro Económico Mundial, las autoridades de diferentes países resaltaron la urgencia de aprovechar la IA generativa y profundizar en su integración para el resguardo de los sistemas digitales. Lo que es un hecho es que los grupos de ciberdelincuentes están trabajando en ello para poder explotarla a su beneficio.

La prueba de esto último es que los grupos de hackers y cibercriminales están lanzando campañas sofisticadas de phishing, un incremento del uso de deepfakes para burlar sistemas de seguridad y el robo masivo de datos e información sensible de la comunidad de internautas.

Discriminación Algorítmica: Los sesgos de la IA

Aplicado a este campo, la discriminación algorítmica tiene lugar cuando el sistema de IA se encarga de tomar decisiones que impactan en la calidad de vida de un determinado grupo de personas. En ocasiones, están basadas tras la consideración de variables como raza, género, religión, orientación sexual, etc. Sin embargo, no es factible conferir estas decisiones a los sistemas de IA porque pueden incurrir en sesgos al prescindir del componente humano.

Vamos a tratar de explicar cómo sucede esto de manera sencilla. La IA puede acentuar la discriminación algorítmica por varias razones. El proceso de recopilación y entrenamiento con base en un grupo de datos sesgados llevará también al desarrollo de un algoritmo sesgado. Por ejemplo, aquellos algoritmos que se utilicen para seleccionar candidatos para un puesto de trabajo podrían amplificar el sesgo y contribuir a la discriminación de determinados grupos por género, edad o estado marital.

En este sentido, la discriminación algorítmica podría prevenirse de distintas maneras. Por ejemplo, se podrían usar datos limpios y diversos, realizar auditorías sobre los algoritmos y modelos de lenguaje, y establecer reglas que garanticen la transparencia sobre el uso de IA.

Pérdida de Control sobre Datos

El auge de la IA y sus diferentes herramientas aumentará la vulnerabilidad de los datos. Los expertos señalan que es fundamental cambiar el enfoque y adoptar estrategias integrales para evitar la pérdida de información en los albores de la IA generativa. Por ejemplo, los procesos de cifrado deben variar dependiendo de la confidencialidad. Los mecanismos más robustos y complejos tienen que implementarse para garantizar su seguridad en cuanto detecten alguna vulneración a los sistemas.

Las filtraciones masivas de datos son un problema frecuente. Algunos casos salen a la luz, otros permanecen en las sombras. Aumenta la preocupación sobre los ataques contra sistemas de IA, además de errores en dichas herramientas que puedan exponer información sensible o abrir una brecha de seguridad que puedan aprovechar los criminales.

En 2019, se perpetró un hackeo contra Capital One, considerado uno de los más grandes en términos de personas afectadas. Presuntamente, el hacker tuvo acceso a millones de datos tras dirigir con éxito un ciberataque contra el sistema de IA que usaba la compañía para la detección de fraudes.

¿Piensas que en la era de la IA habrá mayor o menor número de violaciones contra la privacidad de los usuarios?

Autor

  • Carlos Domínguez es un fanático de la fotografía y nuestro cinéfilo experto. Originario de la ciudad de Puebla, Puebla, ha sido un devorador de series, películas, animes y cortometrajes desde pequeño. Además de ser un lector imparable, también gusta de la tecnología y el marketing digital. Un profesional perfeccionista que viaja siempre con su computadora al hombro.

    View all posts
-ANUNCIOS-
 

¡Deja aquí tu opinión!

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.