Tecnología

Expertos advierten de que introducir datos personales en ChatGPT implica “perder el control sobre ellos”

28 de noviembre de 2023

MADRID. (Portaltic/EP) - Expertos en ciberseguridad han advertido a los usuarios de que al introducir información y datos personales en asistentes de Inteligencia Artificial (IA) generativa como ChatGPT, estos quedan registrado y puede ser reutilizada para continuar entrenando la aplicación, por lo que implica “perder el control sobre ellos” y enfrentarse a consecuencias de privacidad.

Actualmente, existen diversas tecnologías de IA generativa que los usuarios utilizan de forma habitual para llevar a cabo distintas tareas, tanto en el entorno personal como en el laboral. Por ejemplo, permite realizar una búsqueda precisa de información, redactar textos en distintos formatos, traducir relatos a diversos idioma, comparar productos y realizar recomendaciones.

Algunas de las herramientas más conocidas en este sector son los asistentes conversacionales ChatGPT, desarrollado por OpenAI, que ha alcanzado más de 100 millones de usuarios semanales activos en menos de un año, y Bard, por parte de Google.

En este sentido, los expertos de la compañía de ciberseguridad Secure&IT han advertido sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, que pueden registrar dichos datos para continuar entrenando la IA y, por tanto, perder el control de sobre la información personal.

Contenido Patrocinado
TE PUEDE INTERESAR