Tinder y la IA ahora le ayudarán a conseguir el match perfecto: así funciona la nueva opción.
Imagen de referencia. | Foto: Getty Images

TECNOLOGÍA

Tenga cuidado con el uso de ‘chatbots románticos’, hay serios riesgos psicológicos y de privacidad de datos

Algunas aplicaciones basadas en inteligencia artificial ofrecen conversaciones como si al otro lado hubiera una persona real, pero no todo es color de rosa.

Redacción Tecnología
15 de febrero de 2024

Los chatbots románticos mantienen conversaciones con los usuarios como si al otro lado hubiera una persona real, pero su diseño pone en riesgo la privacidad y la seguridad de los datos personales e incluso pueden llegar a tener un impacto dañino sobre los comportamientos de quienes los usan.

Prometen una conversación, compañía e incluso una relación oficial, pero los chatbots románticos no solo tienen un origen dudoso, sino que sus intenciones reales, o las de quienes los han desarrollado, se esconde en malas prácticas de privacidad y seguridad.

Así lo ha expuesto la Fundación Mozilla en su último análisis, que atiende a once chatbots impulsados por inteligencia artificial (IA) diseñados para mantener una relación con los usuarios, y en el que destaca las malas prácticas de privacidad de estos servicios.

Las mejores y más efectivas aplicaciones de citas, según ChatGPT
Las aplicaciones de citas también pueden ser usadas como un medio para ejecutar ciberataques a una persona. | Foto: Ilustración creada con la IA de Bing Image Creator

Solo una asegura en sus políticas que no venden y comparten la información que los usuarios comunican a los chatbots. El resto bien lo hace o ni siquiera explica con claridad su política de privacidad. Y solo el 54 % permite a acceder al registro de datos personales y eliminarlos, lo que no siempre incluye las conversaciones.

También alarma la cantidad de rastreadores que se han detectado en estos servicios, de media 2.663 por minuto, para obtener información sobre el dispositivo o el uso que se hace de la aplicación.

Aparte de la gestión que hacen de la privacidad y la seguridad, también se extrae del análisis la opacidad que rodea a estas aplicaciones, ya que muchas de las compañías que están detrás “son nuevas o desconocidas” para Fundación Mozilla.

Por otra parte, se resalta el mal uso que los chatbots pueden hacer de la información que comparten con ellos los usuarios, algo de lo que no se responsabilizan los desarrolladores y que se agrava al no saber cómo funcionan en realidad estas IA.

El daño que pueden hacer es real, como demuestra el caso del hombre que se suicidó hace casi un año después de que la IA de la app Chai se lo dijera, tras experimentar una gran ecoansiedad y aislarse de su familia y amigos durante seis semanas en las que el chatbot se convirtió en su confidente.

Muchas personas utilizan aplicaciones de citas con la intención de encontrar una relación a largo plazo.
Muchas personas utilizan aplicaciones de citas con la intención de encontrar una relación a largo plazo. | Foto: Getty Images

También se destaca el caso de un joven usuario de la app Replika, que en octubre del año pasado fue sentenciado a pena de cárcel por colarse en el castillo de Windsor con una ballesta con la intención de matar a la reina, después de que la IA le animara a hacerlo.

Aunque ninguno de los chatbots románticos que han analizado hasta ahora en la Fundación Mozilla aprueba en materia de privacidad y seguridad, entienden que hay personas que quieren recurrir a estas aplicaciones, y por ello les aconsejan contar con una contraseña fuerte, eliminar o solicitar la eliminación de los datos personales cuando se finalice el uso, optar por no compartir los contenidos personales para entrenar las IA y restringir o limitar el acceso a elementos como la cámara, el micrófono o la localización.

*Con información de Europa Press.