lunes, abril 28, 2025
- Advertisement -spot_imgspot_img

¿Cómo el uso de ChatGPT puede afectar la privacidad de los usuarios?

- Advertisement -spot_imgspot_img

Expertos en ciberseguridad han advertido a los usuarios de que al introducir información y datos personales en asistentes de Inteligencia Artificial (IA) generativa como ChatGPT, estos quedan registrados y pueden ser reutilizados para continuar entrenando la aplicación, lo que implica “perder el control sobre ellos” y enfrentarse a consecuencias de privacidad.

Actualmente, existen varias tecnologías de IA generativa que los usuarios utilizan habitualmente para diferentes tareas, tanto en el ámbito personal como laboral. Por ejemplo, permiten realizar búsquedas precisas de información, redactar textos en diferentes formatos, traducir historias a varios idiomas, comparar productos y hacer recomendaciones.

Algunas de las herramientas más conocidas en este sector son los asistentes conversacionales ChatGPT, desarrollado por OpenAI, que ha alcanzado más de 100 millones de usuarios semanales activos en menos de un año, y Bard, de Google.

En este sentido, los expertos de la compañía de ciberseguridad Secure&IT han advertido sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, que pueden registrar esos datos para continuar entrenando a la IA y, por lo tanto, perder el control sobre la información personal.

Así, según ha explicado la consultora legal TIC de Secure&IT, Natalia Patiño, en un comunicado, para utilizar correctamente ChatGPT se debe tener en cuenta que es una herramienta que “facilita o complementa” el trabajo humano, pero no lo reemplaza. En este contexto, ha señalado que “no es una herramienta infalible” y que, para evitar riesgos, “siempre se debe verificar su uso”. También ha enfatizado que no es una tecnología capaz de razonar, sino que sus respuestas están relacionadas con los datos con los que fue previamente entrenada.

Aprendizaje por transferencia

De acuerdo con Secure&IT, ChatGPT funciona mediante una técnica de aprendizaje denominada “aprendizaje por transferencia”. Esto significa que se entrena utilizando un conjunto de datos a gran escala, y luego utiliza los resultados para continuar entrenando al modelo.

De esta manera, cuando el usuario interactúa con el “chatbot”, introduce una solicitud y el modelo ajusta su respuesta en función de lo solicitado y los datos contextuales proporcionados. Gracias a este sistema, el asistente es capaz de generar respuestas cada vez más precisas y similares a las que ofrecería un humano.

Sin embargo, los expertos han destacado que, en este proceso, las herramientas de IA utilizan “todos los datos que los usuarios introducen” y estos datos quedan registrados y pueden ser reutilizados. Por lo tanto, se debe considerar qué información se está compartiendo con el “chatbot” y si estos datos son personales.

Según Patiño, “la introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e información”. En referencia a los datos personales, se refiere a cualquier información relacionada con una persona física “identificada o identificable”. Además, ha aconsejado a los usuarios que eviten introducir directamente datos identificables y datos que puedan “indirectamente llevar a la identificación”. “Es muy importante no incluir este tipo de información en las consultas, especialmente considerando que los chats basados en IA son en general muy opacos”, añadió Patiño.

Calidad de las respuestas de ChatGPT y sesgos

Secure&IT también ha señalado que la calidad de la respuesta del asistente depende de la calidad del “prompt” introducido por el usuario, es decir, cómo se solicita la acción requerida y qué contexto se comparte. Por eso, una entrada adecuada debe ser “clara” e incluir palabras clave que ayuden a la IA a construir la respuesta más adecuada.

No obstante, los expertos en ciberseguridad han destacado que, a pesar de todo esto, se pueden generar respuestas incorrectas o incompletas. Incluso se pueden recibir respuestas “alucinantes”, ya que el “chatbot” puede ofrecer información aparentemente lógica y convincente, pero en realidad falsa o inventada.

Otro factor a tener en cuenta al utilizar herramientas de IA como ChatGPT son los distintos sesgos que pueden estar presentes en las respuestas. Por ejemplo, el sesgo de retroalimentación, que ocurre cuando los sistemas de IA perpetúan prejuicios y estereotipos existentes al utilizar la retroalimentación de los usuarios para entrenarse.

Según Patiño, un ejemplo de sesgo de retroalimentación es la discriminación por edad y género en entornos laborales, ya que ChatGPT puede continuar promoviendo la contratación de personas mayores de 45 años o destacar solo perfiles masculinos para puestos directivos “si el modelo de IA para la selección de candidatos aprende información previamente sesgada”.

Frente a esto, la Unión Europea está trabajando en la regulación del uso de la IA. De hecho, como recordaron desde Secure&IT, Europa está en “las etapas finales” de la aprobación del Reglamento sobre la IA. Este reglamento se basa en normas jurídicas para abordar aspectos técnicos, cuestiones éticas y otros desafíos de aplicación que plantea la IA en múltiples sectores.

Con información de Semana 

- Advertisement -spot_imgspot_img
Recientes
- Advertisement -spot_img