

Secciones
Servicios
Destacamos
Escucha la noticia
4 min.
Cada vez más personas usan la Inteligencia Artificial en lugar de las búsquedas de Google: las aplicaciones móviles de ChatGPT y similares permiten obtener respuestas ... exhaustivas en segundos, sin importar que solicitemos un resumen de la Segunda Guerra Mundial, una comparativa entre distintos modelos de 'smartphone' o los pros y contras de tomar cierta decisión vital. No obstante, los llamados 'grandes modelos de lenguaje' tienen una cara B inquietante: la ingente cantidad de información que recopilan para realizar su labor. Datos que muchas veces aportan los propios usuarios sin darse cuenta (conforme fluye la conversación): el barrio donde viven, sus aficiones e incluso su estado de salud, al preguntar por los resultados de una analítica o el síntoma que lleva semanas mosqueándoles.
Como bien explicó la experta en tecnología Kimberly Ann Komando a 'USA Today', debemos ser precavidos con lo que contamos a cualquier IA: nombres de usuario y contraseñas, datos financieros, números de teléfono, información laboral confidencial... No tenemos forma de saber si algo de esto acabará siendo utilizado en conversaciones con terceras personas o recopilado por la compañía responsable con propósitos oscurantistas.
«Cuando usamos ChatGPT, por defecto y salvo que indiquemos lo contrario, se almacenan todas nuestras conversaciones: el historial de preguntas y respuestas al completo, los documentos que compartamos, datos de 'cookies'... Todo esto supone un cóctel más que interesante de conocimiento, lo que permite a la IA hacerse una idea de quiénes somos», explica Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC).
El experto señala que los riesgos de dejar nuestra huella digital en las plataformas de IA supera a los que corremos cuando usamos el buscador de Google o redes sociales como Facebook: «Estamos compartiendo exactamente nuestras necesidades e intereses tanto personales como profesionales sin tener claro si estas plataformas son realmente capaces de privatizar esa información».
Para Curto, una buena forma de saber si hemos hablado de más con ChatGPT es revisar el historial de conversaciones. Si encontramos cualquier dato inconveniente podemos suprimir el chat concreto en que lo hayamos aportado (manteniendo pulsado sobre éste en el listado de chats y escogiendo 'eliminar'). Si por el contrario queremos borrar todos los chats mantenidos hasta la fecha en la aplicación de OpenAI, pulsaremos sobre nuestro nombre de usuario y, dentro del menú de configuración, escogeremos la opción 'Controles de datos' > 'Eliminar todos los chats'.
Dentro de 'Controles de datos' también es interesante fijarse en la opción 'Mejorar el modelo para todos', que podemos desactivar para impedir que nuestro contenido se use para entrenar a la IA. Además, en 'Configuración' > 'Personalización' encontramos el apartado 'Memoria': al desactivarlo impediremos que ChatGPT recuerde determinados detalles sobre nosotros, los cuales podemos consultar y borrar uno a uno un poco más abajo, en 'Gestionar la memoria'.
Pese a estas medidas, una vez utilizada cualquier IA cierta información resulta imposible de recuperar, advierte el profesor de la UOC: «El principal motivo es que los mecanismos para borrar datos embebidos dentro de un modelo son complicados e ineficientes. La mera validación de este borrado –la comprobación de que se ha realizado correctamente– requiere arduas investigaciones. Además, al no estar desplegada por completo la regulación europea sobre inteligencia artificial, existe un vacío legal respecto a la privacidad de los datos».
Pero que no decaiga el ánimo. Existen precauciones a tomar antes de usar una IA generativa: «Utilizarla en local resulta fundamental –explica Curto–. Herramientas como LM Studio permiten descargar modelos siempre y cuando nuestro ordenador sea lo suficientemente potente. Una vez descargado, podemos activar el modelo y usarlo de la misma manera que lo haríamos con ChatGPT y derivados. Además, recomiendo desactivar la conexión a internet, ya que algunos de estos modelos incluyen puertas traseras que remiten información a terceros sin que nos demos cuenta».
Asimismo, Curto alerta de que «los proveedores de IA no muestran un verdadero interés por explicar las opciones de control de la privacidad que incluyen en sus modelos, ocultas o desplegadas en la pantalla con mensajes bastante mínimos. Actualmente no hay ninguna empresa que no quiera capturar nuestros datos y usarlos para enriquecer, mejorar y evolucionar sus sistemas de inteligencia artificial».
¿Tienes una suscripción? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Recomendaciones para ti
Favoritos de los suscriptores
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Este podcast es exclusivo para suscriptores. Disfruta de acceso ilimitado
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.