(+34) 910 42 42 93 [email protected]

datos chatgpt

La semana pasada nos llamaron de Cuatro Al Día para preguntar nuestra opinión sobre por qué el organismo de protección de datos de Italia, y recientemente el de España, habían abierto sendas investigaciones a OpenAI, la empresa detrás de plataformas como ChatGPT.

Después de explicarles el caso, y puesto que me encontraba fuera de Madrid, acordamos que un servidor les enviaría un vídeo de un par de minutos explicando de forma resumida y simple los motivos. Vídeo que acabaron utilizando para un reportaje publicado ese mismo día en televisión.

Como les explicaba en la llamada, y más adelante intentaba resumir en el vídeo que les envié, partimos de una organización sin ánimo de lucro llamada OpenAI, que hace unos años tenía el objetivo de expandir los límites del conocimiento en materia de inteligencia artificial…. a una empresa con ánimo de lucro como es la actual OpenAI, cuyo objetivo, como cualquier otra empresa, es ganar dinero.

Por supuesto, el que de pronto algo como ChatGPT haya pasado a ser un éxito mediático, y que Microsoft estuviera dispuesta a invertir nada menos de 10.000 millones de dólares (la mayoría, eso sí, en créditos para Azure, la nube de Microsoft) nos ha llevado al punto en el que estamos ahora, con la sospecha de que quizás no se han tomado las precauciones adecuadas para asegurar la privacidad de los datos, al menos en territorio europeo.

Y esto, en dos vías principalmente:

Posible explotación de datos personales de ciudadanos europeos

Tanto Italia como España en el momento de grabar el vídeo, como ahora toda Europa, están exigiendo mayor transparencia con el uso y explotación de los datos personales de los usuarios europeos por parte de la empresa OpenAI, y ya puestos, de Microsoft y Azure.

Básicamente, se están solicitando nueve cambios (EN), entre los que figuran:

  • Una política de privacidad donde describa qué datos se utilizan.
  • Una herramienta para que los usuarios puedan solicitar el borrado de sus datos personales.
  • Una herramienta para corregir datos personales incorrectos.
  • Un enlace a la información del usuario en el momento de registrarse.
  • Cambiar la base legal del entrenamiento algorítmico sobre datos sin consentimiento.
  • Una herramienta para ejercer el derecho a eliminar datos personales a la hora de entrenar el algoritmo.
  • Filtro por edad a la hora de registrarse.
  • Control por edad para menores de 13 años y menores de 18 años.
  • Campaña de información en los medios explicando el uso de los datos personales que se utilizan en la herramienta.

Posible uso de datos de carácter personal para entrenar los algoritmos de ChatGPT

Es de todos sabido que para entrenar las herramientas de OpenAI, se usaron bibliotecas de datos de uso académico. A fin de cuentas, y como dejaba claro hace un ratito, OpenAI fue hasta el mes pasado una organización con fines académicos.

Cuando una organización sin ánimo de lucro realiza investigaciones, la política de explotación de datos en prácticamente todo el mundo es muchísimo más laxa.

Pero ahora mismo estamos ante una empresa con ánimo de lucro. Una que se está aprovechando de una serie de herramientas creadas gracias, precisamente, a esa política laxa de acceso a información cuando no tenía fines comerciales.

Para colmo, y como ya expliqué en mi blog con un artículo de hace unas cuantas semanas, se ha demostrado que ChatGPT fue entrenado no solo con datos de acceso libre, sino también con algunos protegidos bajo muros de pago, y presumiblemente también con otros muchos de carácter personal.

Todo esto debe clarificarse, más aún ahora cuando el servicio se ofrece con ánimo de lucro, y tiene tras de sí una corporación que, recordemos, en el momento de escribir este artículo no tiene sede en territorio europeo.

Dejo para terminar el reportaje que acabaron publicando en Cuatro Al Día, y también el vídeo completo que envié al medio:

Vídeo completo compartido por el medio (ES):

En CyberBrainers ayudamos a empresas y usuarios a prevenir, monitorizar y minimizar los daños de un ataque informático o una crisis reputacional. Si estás en esta situación, o si quieres evitar estarlo el día de mañana, escríbenos y te preparamos una serie de acciones para remediarlo.

Monitorización y escucha activa

Ponemos nuestras máquinas a escuchar para identificar potenciales fugas de información, campañas de fraude/extorsión y usurpación de identidad que estén en activo, y/o datos expuestos de ti o de tu organización.

Planes de autoridad y Presencia Digital

Ayudamos a organizaciones y particulares a definir la estrategia e implementar acciones digitales que mitiguen los posibles daños reputacionales que pueda sufrir en el futuro.

Gestión de crisis reputacionales

Cuando el mal ya está hecho, establecemos un calendario de acciones para reducir su duración e impacto, y que la organización y/o persona pueda volver a la normalidad lo antes posible.

Pablo F. Iglesias
Pablo F. Iglesias

Pablo F. Iglesias es Consultor de Presencia Digital y Reputación Online, director de la Consultora CyberBrainers, escritor del libro de ciencia ficción «25+1 Relatos Distópicos» y la colección de fantasía épica «Memorias de Árganon», un hacker peligroso, y un comilón nato 🙂


Suscríbete a nuestro boletín de reputación online
Recibe de manera totalmente gratuita, una vez al mes, un informe con recomendaciones de seguridad y reputación.
Suscríbete a nuestro boletín de reputación online
Recibe de manera totalmente gratuita, una vez al mes, un informe con recomendaciones de seguridad y reputación.