OpenAI podría compartir tus chats con ChatGPT a la Policía

  • OpenAI acepta que compartiría las conversaciones de usuarios con ChatGPT a las autoridades en casos especiales.
  • La empresa de IA asegura que solo pasaría cuando haya señales de daño grave a terceros.
  • Un equipo humano revisa las conversaciones que resultan sospechosas.

¿Puede OpenAI compartir tus conversaciones con la Policía?

Toda información que está en línea es susceptible a violaciones de privacidad. Conviene hacernos a la idea de ello, por más promesas o compromisos que escuchemos de las empresas, gobiernos, etc. La mayoría de nosotros hemos tenido que cambiar contraseñas por hackeos, vulneraciones de seguridad y otro tipo de eventos.

Existen situaciones especiales que llevan a las compañías a compartir información de manera voluntaria. En días recientes, OpenAI aceptó que está abierta a compartir los chats de los usuarios en ChatGPT con la Policía si existen señales de amenazas contra terceros. Esto significó hacer un cambio en sus políticas de privacidad, acción que genera controversia y debate entre los usuarios de la Inteligencia Artificial (IA).

A través de una publicación en su blog, la empresa de Sam Altman reconoce que dará aviso a las autoridades policíacas si detectan peligros graves. El post aborda en la mayor parte de su contenido la importancia de actuar rápido ante conversaciones que denotan problemas de salud mental. Sin embargo, incluye una sección titulada “Delegar a revisión humana el riesgo de daño físico a otros”. En este apartado, comenta:

“Cuando detectamos usuarios que están planeando dañar a otros, enrutamos sus conversaciones a flujos especializados donde son revisadas por un equipo reducido entrenado en nuestras políticas de uso, cuyos miembros están autorizados para tomar medidas que incluyen la prohibición de cuentas. Si los revisores humanos determinan que un caso implica una amenaza inminente de daño grave hacia terceros, podríamos derivarlo a las autoridades policiales”.

¿Por qué genera controversia esta situación?

ChatGPT

Las compañías de IA como OpenAI generan enormes dudas sobre la forma en que utilizan los datos de los usuarios. La necesidad de obtener grandes volúmenes de información para el entrenamiento de sus modelos de IA, así como la falta de transparencia de dichos procesos, hacen más grandes los signos de interrogación. Sospechar sobre violaciones de la privacidad no es una postura neurótica, sino responsable.

Si algo hemos aprendido en estos años, es que las compañías y los gobiernos no siempre actúan de forma ética. La firma propietaria de ChatGPT intenta darle claridad al asunto, pero las áreas grises enturbian el agua.

“Podemos compartir tu información personal con autoridades gubernamentales u otros terceros si es requerido por la ley o en buena fe…para detectar o prevenir fraude u otra actividad ilegal; para proteger la seguridad, integridad y confianza de nuestros productos, empleados, usuarios o el público, o para proteger contra responsabilidad legal”.

Si OpenAI u otra empresa te lanza esta clase de afirmaciones, parece un comportamiento adecuado y tolerable. El problema está en que no siempre es blanco o negro.

Las dudas surgen si consideramos que OpenAI puede tomar la decisiones de compartir tus chats con GPT a la Policía sin una orden judicial expresa. Todo esto queda a la apreciación del equipo de supervisores humanos que revisen tus conversaciones.

Por otro lado, la “alianza” de las grandes empresas tecnológicas con el gobierno no siempre es vista como un vínculo positivo. Incluso, me atrevería a decir que ocurre lo contrario. El desarrollador de IA, Charles McGuiness, recordó las revelaciones hechas por Edward Snowden hace más de una década. El informático destapó toda una red de espionaje impulsada por las agencias de inteligencia de Estados Unidos que contaba con el respaldo de muchas empresas de tecnología importantes.

Honestamente, existen argumentos válidos para adoptar una postura de sospecha y temor, ya que las autoridades policíacas podrían utilizar ChatGPT o la IA para sus trabajos de vigilancia.

Pros y contras

OpenAI ChatGPT Policía

Puntos a favor

  • Los chats con ChatGPT puede servir para detectar riesgos reales, tanto en casos de suicidio como de violencia, pero requiere que la acción sea quirúrgica y apegada a los derechos humanos.
  • Los usuarios merecen que las empresas de IA sean 100% transparentes sobre el uso que se hace de su información e interacciones.
  • La supervisión humana ética ayudaría a reducir las situaciones donde la IA falle para identificar un riesgo inminente.
  • La intervención policíaca oportuna ayudaría a reducir casos de suicidio, pero también posibles ataques terroristas.

Puntos en contra

  • La ambigüedad es peligrosa porque no queda enteramente claro de qué es amenaza. Asimismo, todo depende de quién interpreta el tono, el contexto, etc.
  • Un malentendido podría conducir a consecuencias graves, principalmente, asociadas a la intervención policíaca injustificada.
  • El ecosistema facilitaría la vigilancia encubierta bajo la bandera de la revisión sistemática de chats para la prevención de delitos y ataques.
  • La gente podría dejar o limitar el uso de estas herramientas por miedo a que sus interacciones sean malinterpretadas y conduzcan a problemas con la justicia.

¿Estás a favor o en contra de que OpenAI comparta tus chats con ChatGPT a la Policía? ¡Te leo en comentarios y redes sociales!

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.