La Agencia Española de Protección de Datos investiga a ChatGPT
Jordi Ordóñez
-
No todo vale en nombre del progreso. La Agencia Española de Protección de Datos investiga a ChatGPT y su gestión de la información.
-
-
Te hemos hablado mucho sobre las ventajas de la Inteligencia Artificial para el eCommerce, de las posibilidades que tiene y de cómo es capaz de potenciar la productividad de los negocios a niveles nunca vistos hasta la fecha.
Pero no todo es tan bonito como parece. Hay algunos aspectos que preocupan a la comunidad, entre ellos el de la gestión de los datos que este chat recopila. ¿Estará ajustado a derecho? Es más, ¿no debería establecerse un marco regulatorio diseñado específicamente para estas tecnologías basadas en IA autogenerativa?
-
Voces críticas ante la evolución de la Inteligencia Artificial
-
Ante la velocidad de crucero que ha tomado la tecnología de la IA en los últimos meses, con cientos de aplicaciones como ChatGPT, Bard, Midjourney o Leonardo surgiendo casi cada día, algunos referentes en el mundo de la tecnología están llamando a la pausa y la reflexión.
De hecho esta petición, que ya ha sido firmada por más de 7.000 personas, ha sido impulsada por nombres tan relevantes como Steve Wozniak (Apple), Jaan Tallinn (Skype) o el polémico Elon Musk. Especialmente notorio este último, ya que recordemos que formó parte de Open AI, la empresa creadora de ChatGPT.
-
-
No es que estén en contra de esta tecnología, pero sí que consideran que no se está gestionando adecuadamente, y esto comporta un grave riesgo para la humanidad. Instan a parar los entrenamientos durante, al menos, 6 meses, y utilizar ese periodo para establecer un protocolo, buenas prácticas, un auditoría de los proyectos y, por supuesto, un marco legal del que hasta ahora carecemos.
-
Europa y España investigan a ChatGPT
-
Esta preocupación particular también ha llegado a las instituciones y los gobiernos. En este caso, lo que más inquieta es la gestión que se hace de los datos que recopila el chat y el posterior uso que la herramienta puede hacer de ellos.
ChatGPT no es capaz de discriminar cuáles de estos datos son protegidos o sensibles y cuáles no. Al tratarse de una interfaz totalmente abierta, no tenemos garantías de lo que puede ocurrir con la información que estamos introduciendo en un sistema global como el diseñado por Open AI.
No existe ningún filtro, ni siquiera un simple aviso. Por eso, cuando, por poner un ejemplo, un trabajador de nuestra empresa sube un texto para realizar un resumen que le facilite realizar una presentación, esos datos pasan a formar parte del aprendizaje del propio modelo y, consecuentemente, perdemos el control sobre ellos.
Esto quiere decir que pueden aparecer en una respuesta a una pregunta formulada por un competidor. ¿Qué ocurre si contiene información de nuestros trabajadores? ¿O si está relacionado con nuestra estrategia o con un nuevo producto?
Italia ha sido el primer país europeo en tomar cartas en el asunto. El viernes 31 de marzo las autoridades italianas dictaminaron que se debía limitar y bloquear el acceso a ChatGPT por estar incumpliendo los dictámenes de la GPDD establecidos por la Agencia Italiana de Protección de Datos.
Textualmente, hablan de la “recopilación ilícita de datos personales” y, en consecuencia, han abierto una investigación.
En España la situación es similar. El pasado día 13 de abril se hizo público un comunicado al respecto en el sitio web de la Agencia Española de Protección de Datos. En esta nota de prensa se hace público que la AEPD ha iniciado una investigación sobre ChatGPT por incumplimiento de la normativa nacional sobre protección de datos y la RGPD europea.
-
-
Es importante recalcar que, previsiblemente, las acciones derivadas de esta investigación podrían tener aplicación en el marco del Espacio Económico Europeo, puesto que se persigue que estén “armonizadas y coordinadas” entre todos los Estados miembros, dentro del marco de la RGPD.
Literalmente, el objetivo es abogar por el desarrollo y la puesta en marcha de tecnologías innovadoras como la IA, pero desde el pleno respeto a la legislación vigente. Para ello se ha creado un grupo de trabajo que ya está operativo.
Por lo tanto, no es que se esté criminalizando o prohibiendo el uso de las inteligencias artificiales; pero hasta el momento, la gestión de toda la información recopilada, almacenada y procesada resulta opaca, y esto es incompatible con unas leyes que cada vez son más restrictivas en ese aspecto.
-
-
Según nuestro punto de vista, esto no deja de ser una buena noticia. Si nos preocupamos por la seguridad de los datos de nuestros clientes, tiene sentido que las herramientas que utilicemos sean igual de escrupulosas.
-
¿Crees que el hecho de que la Agencia Española de Protección de Datos investigue a ChatGPT frenará su desarrollo? Dinos cómo lo ves tú en los comentarios o en nuestras redes sociales.
-
Imágenes | Unsplash.