La Intel·ligència Artificial, la més humana de les intel·ligències
Jan 23, 2023
Karina Gibert // directora del centre de recerca Intelligent Data Science & Artificial Intelligence // IDEAI-UPC
Javier Creus // fundador d’Ideas for Change i copromotor de Salus.coop
Introducció
Els algorismes que es basen en Intel·ligència Artificial (IA) tenen múltiples aplicacions i actualment són capaços de revelar qui li agrada a qui, quina música t'encanta, quanta aigua necessita un cultiu, quan ha de posar-se vermell un semàfor i com modificar els preus en un negoci, entre d’altres moltíssimes coses que fem cada dia i que impliquen la intervenció, moltes vegades transparent, d'una intel·ligència artificial.
La proposta de Tik Tok representa un canvi de paradigma important que seguiran la resta de xarxes socials, com Meta, i que ens fa moure d’un sistema de recomanacions de contingut segons els nostres contactes, cap a un sistema governat per un algorisme que proposa contingut a partir d’un test constant per maximitzar el temps d’atenció.
Actualment, la intel·ligència artificial pot recomanar a quina temperatura programar la combustió de residus d’acord amb la seva composició, quina combinació de molècules poden salvar-te d’una malaltia mortal o com anticipar qui morirà a la carretera durant les vacances de Setmana Santa (l’anunci de la DGT de 2022).
L’Autoritat Catalana de Protecció de Dades va publicar el 2020 un complet informe revisant casos d’algorismes que prenen decisions automatitzades en diferents contextos a Catalunya [ACPD 2020] i va posar de manifest l’existència d’una infinitat d’exemples d’ús en àmbits com la salut, justícia, educació, mobilitat, banca, comerç, treball, ciberseguretat, comunicació o societat.
En matèria jurídica, els algorismes d’Intel·ligència Artificial podrien complementar o inclús substituir (tot i que no haurien de) un reglament que es pot consultar al Butlletí Oficial i es pot interpretar de formes diferents per diverses parts, o un organisme decisor on les seves pròpies decisions són en molts casos recurribles.
En l’àmbit del dret [Bahena 2012], més enllà dels buscadors intel·ligents de documents rellevants en la resolució de casos jurídics, buscadors que utilitzen la IA per cercar precedents jurídics a partir de paraules clau, existeixen nombrosos casos de sistemes intel·ligents que ajuden a l’elaboració de demandes, contestacions, i inclús en el dictamen de les sentències i la seva posterior argumentació sota diferents formes de la IA. Aquestes van des dels clàssics sistemes de raonament basats en regles (com GetAid, del govern australià per a determinar l’accés a una assessoria legal en temes criminals i familiars) [Zeleznikov 2022], fins les més avençades arquitectures híbrides que combinen, per exemple, raonament automàtic amb xarxes neuronals artificials (com Split-up que proposa a la Cort Austràlia la partició de béns i custòdia dels fills en casos de separació i divorci) [Zeleznikov 2004].
Un exemple proper podria ser la sol·licitud realitzada per la Fundació Civio per tenir accés al codi font de l'aplicació BOSCO, desenvolupada pel govern i utilitzada per les companyies elèctriques per tal de saber si un usuari en situació de vulnerabilitat pot rebre el “bonus social”, és a dir, descomptes en la seva factura d'energia. Malgrat haver comprovat que molts sol·licitants amb dret no rebien aquesta ajuda, la demanda va ser denegada en primera instància en contra de l'informe del Consell de Transparència, al·legant que suposava un perill per a la seguretat pública (!). Civio ha presentat recurs d'apel·lació a aquesta decisió que deixa als ciutadans desprotegits davant decisions automatitzades que no respecten els seus drets.
És important tenir en compte que la Comissió Europea ha emprès una acció decidida per a definir un marc de referència per al desenvolupament d'una IA segura, ètica i confiable, i està en procés d'elaboració de la Llei Europea de la IA (AI Act) [CE AI act 2021], on s'intenta assegurar que la IA a Europa s'orientarà al bé comú, posarà la persona en el centre i respectarà els drets fonamentals de les persones, a diferència de la visió Xinesa o Nord-americana, on, respectivament, el control de la dada el té el govern (vigilància o surveillance i sistemes de crèdit social) o el té l'empresa propietària de l'aplicació que les recull (i ho monetitza com vol).
En efecte, ja el 2018, de manera pionera, la CE elabora les seves recomanacions ètiques per a una IA segura i confiable (TrustWorthy AI, TWAI) [CE ethics 2018] i el primer dels seus eixos el dedica a la Human Agency and Human Oversight en un clar intent d'evitar que les aplicacions basades en IA puguin prendre decisions de manera autònoma. És a dir, el lloc que Europa proposa reservar a les aplicacions basades en IA és el d'un assistent intel·ligent per a l'usuari, el qual prendrà de forma efectiva la decisió, de tal manera que existeixi sempre una validació humana a la recomanació, predicció o diagnòstic proposat per l'algorisme.
D'altra banda, a la Carta de Drets Digitals (catalana [CDDcat 2019] i espanyola [CDDSpain 2021]) es reconeix el dret de les persones a ser informades de la intervenció d'un algorisme en qualsevol decisió que les afecti, i la persona té també el dret de conèixer amb quins criteris l'ha avaluat l'algorisme i com s'ha elaborat el resultat d'aquesta avaluació. Això ha de permetre detectar possibles biaixos en el funcionament de l'algorisme que puguin incrementar les desigualtats socials o limitar els drets de les persones.
Biaixos i explicabilitat
Entre molts d’altres, són coneguts, i bastant escandalosos per cert, els casos de discriminació per raó de gènere en algorismes basats en IA que avaluen sol·licituds de finançament en diferents canals. Sense anar més lluny, AppleCard, la targeta de crèdit llançada per Apple el 2019, oferia fins a 20 vegades més liquiditat i un major termini de pagament als homes que a les dones, fins i tot entre cònjuges en igualtat de condicions [Telford 2019]. La concessió de crèdits a l'emprenedoria ha estat també objecte d'escandalosos greuges comparatius per a les sol·licituds encapçalades per dones en molts països, com Xile [Montoya 2020], Turquia [Brock 2021] o fins i tot Itàlia [Alesina 2013] i encara que el problema es detecta ja el 2013, el 2021 se’n continuen donant casos.
Prevenir aquest tipus de situacions impacta directament en el tipus d'algorisme que es pot utilitzar per a assistir a les decisions que afecten les persones, perquè han de ser algorismes capaços d'explicar o argumentar per què realitzen una recomanació i no una altra o per què elaboren una certa predicció. Existeix de fet una branca relativament nova de la IA que ha pres molta força i es coneix com IA explicable (explainable AI), que tracta aquests temes. I de moment, és difícil aconseguir que els mètodes de deep learning (aprenentatge profund), que estan fent prediccions molt bones i molt ràpides sobre realitats molt complexes, puguin justificar aquestes prediccions adequadament. Això ocorre en realitat amb tots els algorismes anomenats de caixa negra, entre els quals estan no sols els de deep learning, sinó també tots els basats en xarxes neuronals artificials o computació evolutiva.
L'aplicació ChatGPT d’Open AI oberta al públic general el 30 de novembre del 2022 té una capacitat sorprenent per a redactar tot tipus de textos o línies de codi, aparentment, sobre qualsevol tema que se li pregunti; les barreres a la universalització del cotxe elèctric, la redacció d'un contracte de lloguer tipus o el codi d'una aplicació que faci aparèixer un avatar saludant amb la mà només quan hi hagi un humà davant de la pantalla, són alguns dels temes sobre els quals pot aportar respostes.
En totes les proves realitzades pels autors i molts altres usuaris sorprèn la velocitat i versemblança de les respostes ofertes per l'aplicació, encara que també s'observen mancances de continguts o arguments rellevants en camps específics que dificulten poder considerar els resultats oferts com plenament fiables.
ChatGPT ha estat entrenat amb milions de documents publicats fins a l'any 2021, però els seus creadors no han revelat de quins documents es tracta. Hi ha actualment milions de persones experimentant amb l'aplicació en aquest moment. Fora interessant saber quin ha estat l’“univers” de coneixement emprat en l’entrenament de l’eina per a poder entendre els possibles biaixos en els resultats que ofereix.
Massa prometedor per a deixar-ho passar
Queda clar que la capacitat dels algorismes per a abastar la complexitat, acostar-nos a una desitjada objectivitat, però sobretot la seva capacitat per a generar economies d'escala en les activitats relacionades amb el coneixement constitueix una oportunitat massa atractiva per al progrés com per a deixar-la passar, malgrat els riscos ja coneguts, i d'altres que sens dubte anirem descobrint en els propers anys.
Només a través de l'organització algorísmica pot el metro de Hong Kong organitzar de la forma més eficient als deu mil operaris que cada nit realitzen les 2.600 tasques de reparació i manteniment necessàries per a disposar d'un servei de transport públic amb uns nivells altíssims de puntualitat (99.9% des de 2014!), i generar un estalvi de 2 dies de reparacions per setmana i uns 800.000$ per any [Chun 2005] [Hodson 2014]. El metro de Barcelona disposa des de desembre de 2020 d'un sistema basat en Intel·ligència Artificial que permet controlar l'aforament de les andanes i trens, i obrir o tancar els accessos als mateixos per a generar les condicions més segures per als passatgers des del punt de vista de la propagació de virus [Nac 2020].
Quan un algorisme es codifica en un llenguatge de programació comprensible per a les màquines es converteix en una eina que pot escalar el seu impacte a una dimensió no assolible pels mitjans de comunicació entre humans. Així per exemple, l'actualització del programari d'una flota de vehicles connectats o de robots permet incorporar les millores resultants de l'aprenentatge a cadascun d'ells en pocs minuts. En paral·lel, cada actualització dels algorismes que gestionen les nostres eines de cerca o navegació obren i tanquen oportunitats a comerços i ciutadans per a descobrir-se entre ells.
En realitat estem assistint al desenvolupament emergent d'una tecnologia de gran potència, la Intel·ligència Artificial, que com totes les coses noves genera unes certes pors i on una bona informació pot ajudar a dissipar dubtes. En aquest sentit, el 18 de febrer de 2021 el govern de Catalunya va llençar l'Estratègia Catalana d'Intel·ligència Artificial [catalonia.ai 2021] per estructurar un pla d’acció on el desenvolupament i enfortiment del sector de la IA pogués esdevenir un motor de canvi, modernitat i progrés del país i com a part de l’eix estratégic d’ètica i societat, va llançar el maig de 2021 un curs divulgatiu d'Intel·ligència Artificial orientat a donar formació bàsica a la ciutadania en general. El curs, dissenyat pel centre de recerca de la UPC, IDEAI (Intelligent Data Science and Artificial Intelligence research center) és gratuït i s’hi pot accedir des d’aquesta web.
Com totes les tecnologies, la IA pot presentar usos més o menys ètics, amb major o menor risc, i el repte actualment és trobar aquella delimitació en els usos de la IA que ens permeti aprofitar-nos de tots els seus beneficis sense ser impactats amb perjudicis.
Si ens remuntem en la història, el foc o el ganivet són tecnologies que quan apareixen canvien radicalment el curs de la humanitat. Ambdues, igual que la IA i tantes altres, tenen dues cares. El foc ens va permetre escalfar-nos i superar les gelades, i també cuinar, però si no es prenen les precaucions necessàries pot causar cremades i incendis que poden acabar en grans desastres naturals. El ganivet va permetre noves manipulacions d'aliments i donar forma a noves eines, tot contribuint al desenvolupament de la civilització, però també serveix per a agredir a persones, prova d'això és que en totes les cultures hem desenvolupat normes que penalitzen els usos indesitjables d'aquestes tecnologies. No obstant això, malgrat aquests riscos a ningú se li ocorre prohibir la fabricació i ús de ganivets per protegir-nos dels seus perills i riscos. I això és precisament el que hauria de passar també amb la Intel·ligència Artificial; es tracta més aviat, d'identificar els riscos i regular els seus usos per a permetre un desenvolupament beneficiós per a tots.
La confiança, les limitacions de les màquines i el poder de les dades
Si l’aprenentatge automàtic (machine learning) és la branca de la IA que permet trobar la millor solució aplicant la força computacional, la velocitat i la capacitat d'aprenentatge de les màquines a una massa de dades, convé llavors avaluar aquelles dimensions en les quals les màquines són de confiança i les situacions on la massa de dades resulta adequada.
Llavors les preguntes són: A qui podem confiar la nostra “massa de dades”? A qui podem confiar el control de les màquines per tal que treballin al nostre servei?
L'informe Edelman 2022 assenyala que a nivell global estem en el moment més baix de confiança en les empreses, les ONGs, les institucions i els mitjans des que van iniciar aquesta sèrie l'any 2000. La successió de crisis financeres, la corrupció institucional, les notícies falses (fake-news), els vídeos falsos i la COVID-19 han instal·lat la desconfiança com el sentiment per defecte enfront de les institucions. El govern holandès es va veure obligat a dimitir el 8 de gener de 2021, quan es va poder demostrar que el sistema SyRI basat en IA que utilitzava des de 2014 per a identificar frau en els beneficiaris de les ajudes socials tenia un biaix que imputava únicament famílies immigrants de districtes vulnerables i havia processat erròniament a 26.000 famílies, obligant-los a retornar els subsidis injustament. Centenars de famílies van patir aquest assetjament institucional injust, que va provocar depressions, ruïnes, estigmatització, suïcidis, o presó per error, perquè ningú revisava amb esperit crític i context les recomanacions de l'algorisme [Lazcoz 2022].
En l'àmbit digital Tim Berners Lee, creador de la www, critica com la seva pròpia creació, inicialment destinada a constituir la major eina de democratització del coneixement de la història, ha degenerat en un instrument de divisió i desigualtat a través de la captura de l'atenció i el control de comportaments i intenta desenvolupar una alternativa millor.
En paral.lel, el desenvolupament de les noves tecnologies ha derivat en una concentració d'algorismes i dades en mans d'unes poques supercorporacions d'àmbit mundial que cada vegada influeixen en més aspectes de la nostra vida, amb els riscos que això comporta.
Garantir que els algorismes no incorporen biaixos per disseny és un dels majors reptes als quals hem d'enfrontar-nos. En realitat el disseny d'algorismes es basa en la comprensió del desenvolupador sobre el procés real que està representant computacionalment i per a adquirir aquesta comprensió cal interactuar amb l'expert en aquest procés i captar els aspectes rellevants a tenir en compte en la implementació.
En aquesta transmissió de l'expert en el domini d'aplicació a l'especialista en computació, el coneixement implícit juga molt males passades. Ni l'expert en el domini és conscient que el té, i que l’utilitza en els seus raonaments, decisions i actuacions, ni s'adona que no l’està incloent en la seva descripció del món, ni l'està transmetent a l'interlocutor; ni el desenvolupador és conscient que fa hipòtesi (moltes vegades perillosament simplificadores) que guien la seva implementació i que poden biaixar el comportament de l'algorisme. A més, bona part del coneixement implícit té un component cultural situat, és a dir, molts valors socials o costums, i formes de fer són vàlids en una societat, organització o situació específica però no són universals
Amb tot, alguns criteris s'activen oportunament en la persona humana davant d'unes certes situacions més o menys excepcionals (o infreqüents), però romanen en l'inconscient la resta del temps, i per tant, no es poden passar ni al verbal, ni molt menys a l'algorisme.
Les màquines poden aplicar la força computacional, la velocitat i la capacitat de procés però no són sensibles al context, tret que se'ls ofereixi una bona descripció formal d’aquest; no són capaces de tractar excepcions, si no han estat implementades per a tenir-les en compte; ni poden tractar imprevistos, a diferència dels humans. Això fa que puguin aparèixer comportaments biaixats en els algorismes que tracten fenòmens molt complexos.
Aquests biaixos no sempre són intencionats. Sovint no posem em pràctica amb suficient pulcritud l'anàlisi dels escenaris per als quals es construeixen els algorismes. Definir criteris per a la majoria, per al cas general, gairebé sempre és una mala idea, perquè és en l'excepció, en la vulneració de la minoria, on apareixen les injustícies.
És necessari emprar més a fons el pensament lateral i realitzar una anàlisi més completa dels possibles escenaris d'excepció per a reduir el biaix en la lògica dels algorismes. Certament, disposar d'equips diversos facilita aquesta tasca, ja que la combinació de diferents mirades sobre un mateix problema aporta visions que es complementen i de manera natural redueixen els biaixos lògics, però també els biaixos en les dades.
De fet, la major part dels algorismes s'alimenten de dades, i hem perdut el bon costum d'utilitzar la vella teoria del mostreig i del disseny d'experiments per a garantir que les dades que utilitzarem per a entrenar una IA representaran correctament la població, o el fenòmen, en estudi i no comportaran biaixos que corrompin les prediccions i recomanacions dels sistemes resultants.
Segons explica Kai Fu Lee en el seu llibre AI superpowers la disponibilitat de dades és més rellevant que la qualitat de l'algorisme. Així per exemple, els algorismes per a jugar als escacs existien des de l'any 1983, però no va ser fins a l'any 97 quan Deep Blue va guanyar a Kasparov, només sis anys després que el 1991 fos publicada una base de dades amb 700 mil partides entre mestres. En un món on els algorismes bàsics són públics, és la disponibilitat de dades el que determina l'avantatge.
No obstant això, actualment les dades ja no sols es redueixen als números o les magnituds mesurables que l'estadística tradicional porta analitzant des de fa tantíssims anys. La veu, les imatges, els vídeos, els documents, els tuits, les opinions, les nostres constants vitals o els valors de les monedes virtuals són avui fonts d'informació valuosíssimes de les quals extreure informació rellevant en totes direccions, i constitueixen una nova generació de dades complexes que són objecte d'explotació intensiva des de l'àmbit de la Intel·ligència Artificial. Els videojocs, les simulacions virtuals o el tan promès metavers estan construïts amb dades, i constitueixen metàfores computacionals de mons reals o imaginaris. Com afirma Beau Cronin, poden ser preferibles al món real per a aquells que no gaudeixen del “privilegi de realitat”: és impactant, i mereix reflexió, constatar que avui dia el 50% dels joves ja considera que tenen més oportunitats vitals en l'entorn en línia que en el món real.
Les arquitectures de dades descentralitzades o distribuïdes, i les emergents tecnologies de ciència de dades federades formen part d'un intens debat sobre com desenvolupar les polítiques de dades, que no sols es redueixen a les arquitectures de suport on allotjar les dades, sinó també a com es produeixen, les polítiques d'obertura i tinença de dades, els models de propietat i de negoci (comercial o institucional?) i les llicències d'ús. Alguns argumenten que si la producció de les dades és distribuïda -l'algorisme de reconeixement facial “facelift” de Google es basa en fotografies de 82.000 persones- la seva propietat hauria de ser també ser distribuïda. En algun cas, els tribunals també han obligat a la destrucció dels algorismes generats a través de l'obtenció enganyosa de dades, com l'aplicació Kurbo que capturava dades de nens de vuit anys sense el coneixement dels seus majors o la “horrible app”, en termes del MIT, que posava cares de dones a vídeos porno a partir de fotos que es podien agafar obertament de la xarxa (i que per prudència no enllacem a la referència).
Reptes i propostes
No hi ha dubtes que l'activitat humana modifica les condicions de vida en el planeta i que ho ha fet de forma accelerada durant els últims dos segles, fins al punt de fer-nos conscients de l'emergència climàtica i social en la qual vivim.
El nostre repte col·lectiu és ara la vida: com generar condicions de vida digna per als 8.000 milions de persones que habitem el planeta, i com fer-ho sense que la nostra supervivència amenaci la quantitat, qualitat i diversitat de la vida dels altres éssers vius o de les generacions futures.
No podem prescindir de la Intel·ligència Artificial com a eina per a abastar la complexitat, la simultaneïtat i l'escala d'aquests reptes, però tal com hem argumentat anteriorment, tampoc podem deixar que allò que és tècnicament possible, encara que no sigui necessàriament desitjable, ens guiï en el seu desenvolupament.
La IA és una tecnologia creada pels humans i per això recull moltes de les característiques de la nostra espècie, entre elles, la possibilitat d'equivocar-se; o de tenir prejudicis i preferències quan s'entrena amb dades esbiaixades o els seus creadors defineixen criteris que no són equitatius, o no contemplen casuístiques rellevants, i això pot contribuir a incrementar les desigualtats socials o les injustícies. Per aquesta raó és fonamental refinar les metodologies de construcció de dades d'entrenament, de disseny dels algorismes i de validació dels mateixos per tal que garanteixin una IA sòlida i confiable, així com desenvolupar un marc normatiu i legal que acompanyi al sector, i a la ciutadania, amb seguretat.
Creiem que és possible formular un nou marc per al desenvolupament de la Intel·ligència Artificial al servei de la vida si combinem quatre àmbits d'actuació interdependents: el tecnològic, el metodològic, el jurídic i la governança. Detallem a continuació cadascun d'ells.
Àmbit tecnològic: Tecnologies descentralitzades
Si, tal com hem vist, la temptació del control social o comercial prové de la centralització de les dades, ens convé impulsar tecnologies que com els sistemes federats d'aprenentatge (federated learning) permeten extreure coneixements de bases de dades distribuïdes en diferents seus, distribuint l'execució dels algorismes a optimitzar a cadascuna d'aquestes seus i extreure després conclusions de validesa general basades en diverses iteracions.
Si el desplegament massiu de la internet de les coses ha d'ajudar-nos a gestionar la complexitat i simultaneïtat d'aquests reptes en cada context local, hem també impulsar els avenços en la capacitat de computació en l'extrem (edge computing) que habiliti la resposta autònoma a cada moment sense necessitat de traslladar o processar les dades en un sistema centralitzat. Serveix com a exemple l'article publicat a Nature el 15 de setembre del 2021 on es descriu com es va generar un algorisme que podia predir amb un 92% de fiabilitat les necessitats d'oxigen per a pacients amb Covid a partir de les dades vitals i radiografies de pit de pacients de 20 hospitals sense necessitat de centralitzar totes les dades en una única base de dades.
La blockchain pot també contribuir a acreditar i validar les interaccions entre agents distribuïts per a la generació de valor, i facilitar així el desenvolupament de sistemes complexos orientats a objectius compartits.
Àmbit metodològic: Metodologies híbrides knowledge-based/data-driven amb assistència de l'expert
Des del seu naixement la IA ha passat per diverses etapes. En la inicial, el focus era el coneixement dels experts i els sistemes basats en coneixement (knowledge-based); davant les seves limitacions va tenir lloc un canvi de paradigma cap al machine learning (aprenentatge automàtic) on el focus s'ha posat en les dades i els processos d'aprenentatge inductiu.
Després de gairebé quaranta anys de machine learning i models basats en dades (data-driven), constatem que no tot és representable a través de dades, i l'aproximació data-driven pura també presenta limitacions per als ambiciosos objectius que es plantegen amb l'ús de la IA.
Sembla que el més raonable és moure's a un tercer paradigma, el de les Intel·ligències Artificials híbrides -aquelles que combinen components basats en coneixement amb dades de manera cooperativa- que conserven les bondats de totes dues aproximacions i mitiguen mútuament les seves limitacions; un paradigma on les dades arribin on no arriba el coneixement implícit dels experts, i el coneixement humà aporti el context que no es pot representar en les dades.
El tercer ingredient fonamental és la intensa col·laboració amb l'expert en l'aplicació del sistema basat en IA durant tot el procés de disseny, construcció, elecció de les dades rellevants, preparació de dades, avaluació, validació i supervisió del sistema; especialment en la contextualització i interpretació de resultats i en la supervisió de les recomanacions que dona el sistema ja en fase de producció (human agency).
L'esquema que inclou el “human in the loop” és l'únic que garanteix que les dades són rellevants, que el seu ús està justificat i que el que es fa amb elles té sentit, que garanteix la correcta posada en context dels resultats obtinguts. Esquemes de co-creació on a més dels experts i dissenyadors de la IA intervinguin els potencials usuaris són més que recomanables.
Per descomptat que serà fonamental comptar amb experts lliures d'intencionalitat i en aquest sentit és interessant sumar equips d'especialistes que aportin el coneixement consensuat en l'àmbit d'aplicació deixant de costat visions personals o tendencioses. Això, tanmateix, no té ni més ni menys risc que la necessitat absoluta que les dades que alimentin el sistema tinguin la màxima qualitat, que recau en mans dels mateixos humans que intervenen en el procés.
Àmbit jurídic: Marc jurídic i normatiu de les dades i els algorismes
Tal com ha ocorregut en altres àmbits, la Unió Europea lidera el desenvolupament d'un marc jurídic i normatiu que reguli l'ús de les dades i els algorismes respectant els drets dels ciutadans per a aconseguir un adequat equilibri entre el bé comú, la competitivitat econòmica i el progrés social.
La filosofia general d'aquesta regulació, que els estats, regions i municipis estan desenvolupant en paral·lel, és evitar escenaris en els quals les dades i els algorismes són utilitzats de manera inadequada per al control comercial o social dels ciutadans.
Al mateix temps les iniciatives legislatives d'obligat compliment, grups de ciutadans i professionals diversos impulsen també iniciatives que tenen per objecte garantir un ús adequat de les dades i una aplicació controlada dels algorismes.
Així per exemple, la cooperativa ciutadana de dades per a la recerca en salut Salus.coop, va dissenyar les llicències d'ús de les dades al costat dels ciutadans a través de la iniciativa TRIEM, que presentava diversos escenaris en els quals se sol·licitaven les seves dades i demanaven la seva acceptació o rebuig. Les dades no són simplement “continguts” que puguin ser compartits amb llicències Creative Commons i cada escenari presentat detallava (i) qui els sol·licitava (ii) quin era l'objecte de la recerca (iii) com es compartirien els resultats de la recerca i (iv) quin risc de reidentificació assumien aquells que compartissin les seves dades.
En paral·lel, grups d'experts, professionals i governs impulsen la creació de segells i certificacions, com ara el segell ètic PIO de l'Observatori d'Ètica de la Intel·ligència Artificial de Catalunya (OEIAC) [PIO 2022], entitat creada a l’empar de l’estratègia catalana d’IA de Gencat ja esmentada, que acreditin la capacitat d’explicabilitat de l'algorisme, les seves recomanacions i objectius desitjats o la representativitat de les dades utilitzades en l'entrenament respecte a la població afectada per la seva aplicació. El 23 de desembre de 2022 l'Ajuntament de Barcelona va posar en vigor el Protocol de Definició de metodologies de treball i protocols per a la implementació de sistemes algorítmics de la Comissió de Govern, com a part de les accions previstes en la Mesura de Govern de l'Estratègia Municipal d'Algorismes i Dades per a l'Impuls Ètic de la Intel·ligència Artificial. Aquest protocol, seguint les directrius europees, estableix cada pas del cicle de vida d'un servei TIC de l'Ajuntament de Barcelona basat en intel·ligència artificial, els estudis, controls i estratègies a desenvolupar [Protocol IA-BCN 2022].
En l'àmbit corporatiu s'ha de buscar un equilibri entre el nivell de transparència i obertura dels criteris utilitzats per un algorisme, i el secret comercial o avantatge competitiu propi de l'empresa que garanteix la seva supervivència i desenvolupament en un mercat global. En aquest context semblaria socialment exigible l'explicitació dels criteris de decisió emprats, però més difícilment l'obertura del codi per al seu examen.
En el mateix sentit caldria establir polítiques de backrunning (execució inversa) dels algorismes sobre bases de dades representatives de la població a la qual han d’afectar per tal de validar objectivament l'absència de biaixos i la qualitat social de les recomanacions resultants.
Finalment, resulta imprescindible informar els ciutadans d'aquelles situacions en les quals la IA està prenent decisions rellevants per a la seva vida, així com fomentar el dret a conèixer els criteris emprats en la presa de decisions i a recórrer a un interlocutor humà qualificat per a atendre les seves reclamacions.
Les cartes de drets digitals en vies de redacció o ja aplicables, desenvolupades en diversos àmbits, entre ells el català o l'estatal, com ja hem dit, formulen també el dret dels ciutadans a negar-se al fet que les seves dades s'utilitzin per a propòsits no desitjats, encara que es tracti de dades públiques ja en possessió de les administracions (opt out).
Àmbit governança: Governança participativa
El govern de les dades, la matèria primera que alimenta a la Intel·ligència Artificial, és fonamental per a la definició de les seves finalitats. Tal com hem observat el govern corporatiu o institucional de masses de dades centralitzades poden posar en risc o limitar drets ciutadans de caràcter fonamental, o desviar el potencial del seu ús a finalitats en conflicte amb l'interès general o amb els reptes socialment rellevants a cada moment i societat.
En front de les temors dels ciutadans davant del mal ús de les seves dades a nivell individual, han sorgit a tot el món un conjunt de noves institucions socials que instrumenten la governança col·lectiva de les dades per al bé comú conegudes com “data trusts”, literalment fideïcomisos de dades.
Els “data trusts” adopten en l'actualitat multitud de formes jurídiques; fundacions públiques, privades o mixtes; cooperatives o sindicats de dades; o fins i tot DAOs (organitzacions distribuïdes autònomes) basades en un conjunt de regles que operen sobre blockchain.
En totes elles l'objectiu és maximitzar el potencial col·lectiu de les dades a través de mecanismes de governança participatius i transparents que garanteixin el seu ús on els ciutadans o les normes de les institucions que els gestionen en el seu nom han prestat el seu suport de forma directa i no per a uns altres.
No és el primer cop que els humans tenim la oportunitat de substituir la nostra força de treball per la que realitzen els animals i després les màquines. Sabem també que aquesta substitució no és mai plena ni està exempta de riscos, especialment en les etapes inicials, en les que la fascinació per les noves possibilitats avença llur adopció als canvis socials i regulatoris per a garantir que el resultat últim millora les oportunitats vitals dels humans.
Resulta evident que la IA pot ajudar-nos a afrontar amb èxit les amenaces socials i ambientals que ens rodegen avui, perquè representa actualment un dels nostres millors al.liats de benestar i protecció del medi. Però per a que totes aquestes noves possibilitats, aquesta nova energia es canalitzi a favor de la vida, necessitem prendre les regnes i desenvolupar un nou marc ètic, tecnològic i institucional que guiï el seu desenvolupament i implantació.
REFERÈNCIES
[Bahena 2012] BAHENA, Goretty Carolina Martínez. La inteligencia artificial y su aplicación al campo del Derecho. Alegatos, 2012, no 82, p. 827-846. https://fuenteshumanisticas.azc.uam.mx/index.php/ra/article/view/205
[ACPD 2020] Autoritat Catalana de Protecció de Dades: Intel.ligència Artificial: Decisions automatitzades a Catalunya, ACPD, 2020
[Alesina 2013] ALESINA, Alberto F.; LOTTI, Francesca; MISTRULLI, Paolo Emilio. Do women pay more for credit? Evidence from Italy. Journal of the European Economic Association, 2013, vol. 11, no suppl_1, p. 45-66.
[Brock 2021] BROCK, J. Michelle; DE HAAS, Ralph. Discriminatory lending: Evidence from bankers in the lab. 2021.
[catalonia.ai 2020] Estratègia Catalana d’Intel.ligència Artificial, Generalitat de Catalunya 2020
[CDDcat 2019] Carta Catalana de drets i responsabilitats digitals. Generalitat de Catalunya, desembre de 2019 https://politiquesdigitals.gencat.cat/ca/ciutadania/drets-responsabilitats/carta/
[CDDSpain 2021] Carta de Derechos Digitales. Moncloa, julio de 2021 https://www.lamoncloa.gob.es/presidente/actividades/Documents/2021/140721-Carta_Derechos_Digitales_RedEs.pdf
[CE ethics 2018] High Level Expert Group on AI, EC (2018) Ethics Gruideiles for Trustworthy AI. CE. 2019. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
[CE AI act 2021] The AI Act, CE, 2021 https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF
[Chun 2005]Chun, H.W., Yeung, W.M., Lam, P.S., Daniel Lai, Richard Keefe, Jerome Lam, Helena Chan, "Scheduling Engineering Works for the MTR Corporation in Hong Kong," In Proceedings of the 17th Conference on Innovative Applications of Artificial Intelligence, Pittsburgh, July, 2005
[Hodson 2014]HODSON, Hal. The subway run by AI. 2014.
[Getaid xx] Getaid: Helping victorian with their legal issues https://www.legalaid.vic.gov.au/
[Lazcoz 2022] LAZCOZ MORATINOS, Guillermo; CASTILLO PARRILLA, José Antonio. Algorithmic profiling in the light of human rights and the General Data Protection Regulation: the SyRI case. 2022.
[Montoya 2020] Montoya, A. M., Parrado, E., Solis, A., & Undurraga, R. (2020). De mal gusto: Discriminación de género en el mercado de créditos de consumo (No. IDB-WP-1053). IDB Working Paper Series.
[Nac 2020] Inteligencia artificial para controlar el aforo en el metro de Barcelona, El Nacional 2 diciembre 2020 https://www.elnacional.cat/es/barcelona/inteligencia-artificial-controlar-aforo-metro-barcelona-tmb_562131_102.html
[PIO 2022] El modelo PIO (Principios, Indicadores y Observables): Una propuesta de autoevaluación organizativa sobre el uso ético de datos y sistemas de inteligencia artificial
https://www.udg.edu/ca/Portals/57/OContent_Docs/modelpio-CAS-v5.pdf
[TELFORD 2019]TELFORD, Taylor. Apple Card algorithm sparks gender bias allegations against Goldman Sachs. The Washington Post, 2019.
[Zeleznikov 2004] Zeleznikow, J. (2004). The Split‐up project: induction, context and knowledge discovery in law. Law, Probability and Risk, 3(2), 147-168.
[Zeleznikov 2022] Zeleznikow, J. An Australian Perspective on Research and Development Required for the Construction of Applied Legal Decision Support Systems. Artificial Intelligence and Law 10, 237–260 (2002). https://doi.org/10.1023/A:1025450828280
Share: