L'Agència Espanyola de Protecció de Dades investiga ChatGPT
Jordi Ordoñez
-
No tot s'hi val en nom del progrés. L'Agència Espanyola de Protecció de Dades investiga ChatGPT i la seva gestió de la informació.
-
-
T'hem parlat molt sobre els avantatges de la Intel·ligència Artificial per a l'eCommerce, de les possibilitats que té i de com és capaç de potenciar la productivitat dels negocis a nivells mai vistos fins ara.
Però no tot és tan bonic com sembla. Hi ha alguns aspectes que preocupen la comunitat, entre ells el de la gestió de les dades que aquest xat recopila. Estarà ajustat a dret? És més, no s'hauria d'establir un marc regulador dissenyat específicament per a aquestes tecnologies basades en IA autogenerativa?
-
Veus crítiques davant de l'evolució de la Intel·ligència Artificial
-
Davant la velocitat de creuer que ha pres la tecnologia de la IA en els darrers mesos, amb centenars d'aplicacions com ChatGPT, Bard, Midjourney o Leonardo sorgint gairebé cada dia, alguns referents al món de la tecnologia estan cridant a la pausa i la reflexió.
De fet aquesta petició, que ja ha estat signada per més de 7.000 persones, ha estat impulsada per noms tan rellevants com ara Steve Wozniak (Apple), Jan Tallinn (Skype) o el polèmic Elon Musk. Especialment notori aquest darrer, ja que recordem que va formar part d'Open AI, l'empresa creadora de ChatGPT.
-
-
No és que estiguin en contra d'aquesta tecnologia, però sí que consideren que no s'està gestionant adequadament, i això comporta un greu risc per a la humanitat. Insten a aturar els entrenaments durant, almenys, 6 mesos, i utilitzar aquest període per establir un protocol, bones pràctiques, una auditoria dels projectes i, per descomptat, un marc legal que de moment no tenim.
-
Europa i Espanya investiguen ChatGPT
-
Aquesta preocupació particular també ha arribat a les institucions i els governs. En aquest cas, el que més inquieta és la gestió que es fa de les dades que recopila el xat i el posterior ús que l'eina en pot fer.
ChatGPT no és capaç de discriminar quines d'aquestes dades són protegides o sensibles i quines no. En tractar-se d'una interfície totalment oberta, no tenim garanties del que pot passar amb la informació que introduïm en un sistema global com el dissenyat per Open AI.
No hi ha cap filtre, ni tan sols un simple avís. Per això, quan, per posar un exemple, un treballador de la nostra empresa puja un text per fer un resum que li faciliti fer una presentació, aquestes dades passen a formar part de l'aprenentatge del model i, en conseqüència, perdem el control sobre elles.
Això vol dir que poden aparèixer en una resposta a una pregunta formulada per un competidor. Què passa si conté informació dels nostres treballadors? O si està relacionat amb la nostra estratègia o amb un nou producte?
Itàlia ha estat el primer país europeu a intervenir. Divendres 31 de març les autoritats italianes van dictaminar que s'havia de limitar i bloquejar l’accés a ChatGPT per estar incomplint els dictàmens de la GPDD establerts per l’Agència Italiana de Protecció de Dades.
Textualment, parlen de la “recopilació il·lícita de dades personals” i, en conseqüència, han obert una investigació.
A Espanya la situació és semblant. El dia 13 d'abril es va fer públic un anunci al respecte al lloc web de l’Agència Espanyola de Protecció de Dades. En aquesta nota de premsa es fa públic que l’AEPD ha iniciat una investigació sobre ChatGPT per incompliment de la normativa nacional sobre protecció de dades i la RGPD europea.
-
-
És important recalcar que, previsiblement, les accions derivades d'aquesta investigació podrien tenir aplicació al marc de l'Espai Econòmic Europeu, ja que es persegueix que estiguin “harmonitzades i coordinades” entre tots els Estats membres, dins del marc de la RGPD.
Literalment, l'objectiu és advocar pel desenvolupament i la posada en marxa de tecnologies innovadores com la IA, però des del ple respecte a la legislació vigent. Per això s'ha creat un grup de treball que ja està operatiu.
Per tant, no és que s'estigui criminalitzant o prohibint l'ús de les intel·ligències artificials; però fins ara, la gestió de tota la informació recopilada, emmagatzemada i processada resulta opaca, i això és incompatible amb unes lleis que cada cop són més restrictives en aquest aspecte.
-
-
Segons el nostre punt de vista, això no deixa de ser una bona notícia. Si ens preocupem per la seguretat de les dades dels nostres clients, té sentit que les eines que utilitzem siguin igual d'escrupoloses.
-
Creus que el fet que l'Agència Espanyola de Protecció de Dades investigui ChatGPT en frenarà el desenvolupament? Digues com ho veus tu als comentaris o a les nostres xarxes socials.
-
Imatges | Unsplash.