A mesura que el món avança cap a una era basada en la intel·ligència artificial, és moment de revisar els marcs ètics que guien les nostres interaccions amb la tecnologia.
L’any 1942, Isaac Asimov, autor de ciència-ficció, va introduir les Tres Lleis de la Robòtica al seu relat “Runaround”. Aquestes regles, posteriorment immortalitzades al seu llibre I, Robot, van servir com a guia per a l’ètica robòtica durant dècades. Les lleis d’Asimov eren elegantment simples: els robots no han de fer mal als humans, han d’obeir els humans excepte si això causa danys, i han de protegir-se ells mateixos sempre que això no entri en conflicte amb les dues primeres lleis.
Tot i que aquestes lleis van néixer de la ficció, han tingut una influència profunda en els debats reals sobre l’ètica en tecnologia. Tanmateix, els sistemes d’IA amb què ens enfrontem avui són molt diferents dels robots físics que Asimov imaginava. La intel·ligència artificial generativa, capaç de crear textos, imatges, vídeos i fins i tot veus humanes, planteja reptes molt més enllà del que Asimov podia preveure. Les Tres Lleis ja no són suficients. La nostra era exigeix una actualització que consideri la IA.
Pensem en la proliferació de la manipulació digital mitjançant la IA: Deepfakes, que utilitzen la IA per crear continguts sintètics convincents. LA veritat és que s’han convertit en una amenaça seriosa per a la confiança en la comunicació digital. Vídeos, àudios i imatges falses poden suplantar qualsevol persona, facilitant estafes i escampant desinformació amb una facilitat sorprenent. El discurs polític ja ha patit l’impacte de campanyes generades per bots que simulen opinió pública, mentre les trucades d’estafa i vídeos generats per IA que suplanten persones estimades ataquen els membres més vulnerables de la societat.
És fàcil quedar-se sorprès per un vídeo de qualsevol de nosaltres parlant amb qualsevol llengua amb fluïdesa. Aquesta experiència no és res comparada amb els perills que enfrontem la canalla i els adolescents que formen vincles emocionals amb xatbots d’IA, víctimes que cauen en estafes creades per veus generades amb IA, i persones que perden la capacitat de distingir entre interaccions humanes i artificials.
Les conseqüències van més enllà de la incomoditat o l’embolic. L’angoixa emocional, la pèrdua de recursos i fins i tot els suïcidis s’han vinculat a interaccions amb sistemes d’IA enganyosos.
Per mantenir la confiança cal un entorn legal que permeti mantenir la confiança en l’era de la IA. La col·laboració humana-IA té un potencial immens, però ha d’estar fonamentada en la transparència. Els agents artificials han d’identificar-se com a tals, i els continguts generats per IA han d’estar clarament etiquetats, tret que hagin estat extensament adaptats per un humà. La implementació d’aquest principi requeriria divulgació de la IA, etiquetatge clar, estàndards tècnics per a la identificació, marcs legals per fer complir aquestes mesures, i iniciatives educatives per millorar la competència en IA.
És clar que això és més fàcil de dir que de fer. La investigació sobre el marcatge i la detecció de continguts generats per IA tot just comença. Qui vol fer coses malintencionades probablement trobarà formes de el·ludir aquestes mesures de seguretat, i escalar aquestes solucions a nivell més global i això, requerirà un gran esforç. Però això és essencial. El futur de la col·laboració humana-IA depèn de la capacitat per distingir entre interaccions artificials i humanes.
Els relats d’Asimov sovint exploraven les conseqüències no desitjades dels robots que intentaven seguir les regles. Els seus mons imaginaris ens mostren com fins i tot els sistemes ben intencionats poden fallar. Tot i això, cal esforç per aconseguir sistemes d’IA ètics que segueixin aquests principis, continua essent un objectiu clau. Cal garantir que el desenvolupament de la IA s’alineï amb els valors humans. El moment d’actuar és ara, abans que l’engany es converteixi en la norma i la confiança en el nostre món digital quedi irremeiablement erosionada.
Ramon Gallart
Cap comentari:
Publica un comentari a l'entrada