¿Qué datos damos y no deberíamos dar a ChatGPT?

ChatGPT

Como ya sabrás, ChatGPT es un sistema de inteligencia artificial creado con la finalidad de mantener conversaciones a partir de preguntas convencionales que entenderá y contestará.

Es un sistema de chat desarrollado por la empresa OpenAI basado en el modelo de lenguaje por Inteligencia Artificial GPT-3. Tiene más de 175 millones de parámetros y realiza desde traducción hasta generación de textos.

Cada vez es más común que utilicemos esta inteligencia artificial, sobre todo con fines de facilitar nuestro trabajo, sin embargo, ya se ha demostrado que ChatGPT comete algunos errores. Volvemos a incidir que este tipo de herramientas de IA nos facilitan mucho la vida, algunos de los principales beneficios son:

La automatización de procesos y tareas.

Agiliza la toma de decisiones.

Fomenta la creatividad.

Pero como sabes nos gusta mantenerte informado/a del uso que hacen de tus datos las herramientas que están más de moda. 

Así que, ahí va… ¿qué datos nuestros recopila ChatGPT? ¿están seguros estos datos de llegar a terceros?

En el artículo de hoy de mi huella digital vamos a hablar acerca de la información que recoge ChatGPT y los motivos o razones por los que OpenAI puede compartir estos datos con terceros.

ChatGPT

Datos que recopila  

Si preguntamos a ChatGPT, este niega recopilar información personal que identifique a los usuarios, como nombres o direcciones de correo electrónico. Sin embargo, según dice Genbeta, a partir de la política de privacidad que publica OpenAI y recopila estos datos:

  • Nombres.
  • Datos de contacto.
  • Credenciales de la cuenta.
  • Información de pago.
  • Historial de transacciones.
  • Entrada y carga de archivos.
  • Protocolo de Internet.
  • Tipo y configuración del navegador.
  • Fecha y hora de las solicitudes.
  • Formas de interacción con la web de OpenAI.
  • Sistema operativo del usuario.
  • Tipo de dispositivo del usuario.

¿Comparte los datos con terceros? 

La información personal que reciben puede ser utilizada para mejorar los productos y servicios existentes de OpenAI. También, según como dice la compañía, se podrían utilizar estos datos para acabar en manos de terceros. Algunas de las razones por las que esto podría ocurrir son:

1) Vendedores y proveedores de servicios. Defienden que pueden proporcionar información personal a estos actores externos para ayudar a satisfacer sus necesidades comerciales.

 2) Transferencias comerciales. En caso de que OpenAI sea vendida y absorbida por otra compañía, se reorganice, se presente en quiebra u otros escenarios similares, los datos pueden ser transferidos.

 3) Requisitos legales. La compañía dice que los datos también pueden ser transferidos en caso de que deban cumplir con obligaciones legales.

 4) Afiliados. También señalan que pueden compartir información personal con una entidad que controla, es controlada o está bajo control común de OpenAI.

¿Por qué nuestras conversaciones no están protegidas?
La empresa OpenAI defiende que, al ser un sistema de carácter experimental, tiene la obligación de revisar las conversaciones para mejorar los sistemas y garantizar que el contenido cumpla con sus políticos y requisitos de seguridad. Esto les permite entrar en todos los chats creados por los usuarios y, por lo tanto, acceder a nuestros datos personales y almacenarlos.

 

Violaciones en la normativa de protección de datos 

El Consejo Europeo de Protección de Datos ha creado un grupo de trabajo para coordinar las agencias de privacidad europeas en un posible veto de ChatGPT. Esto ha surgido ante el bloqueo que han hecho en Italia al uso de este sistema de inteligencia artificial por “la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI” y “la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”.

En Italia, han denunciado tres violaciones específicas:

  1. Haber recopilado datos personales de miles de millones de personas para entrenar sus algoritmos sin informarle de esta circunstancia.
  2. Recopilar datos personales de los usuarios durante las conversaciones sin informarles del destino de estos datos.
  3. Generar contenidos, en respuesta a preguntas que en ocasiones atribuyen a las personas hechos y circunstancias inexactas y falsas, proponiendo así una representación distorsionada de su identidad personal.

Francia y Alemania también están analizando el uso de la información que hace ChatGPT.

¿Qué te ha parecido este artículo? ¿usas ChatGPT frecuentemente? recuerda que puedes dejarnos tus comentarios y compartir este artículo con familiares, amigos e incluso menores a tu cargo para acompañarlos en su educación digital y el uso responsable de la tecnología.

Entradas recomendadas

Aún no hay comentarios, ¡añada su voz abajo!


Añadir un comentario