Intel·ligència artificial ètica, responsable i per al bé social

© Romualdo Faura

Quan la intel·ligència artificial es fa servir en escenaris que afecten milions de persones, sorgeixen reptes de governança i dilemes ètics. Com podem estar segurs que les decisions algorítmiques s’apliquen sota el control social? Moltes de les propostes que es fan sobre principis ètics s’agrupen sota la sigla en anglès FATEN: justícia, autonomia, confiança, equitat i no maleficència.

Vivim en una època de prosperitat, però també ens enfrontem a uns reptes globals gegants que amenacen la nostra existència com a espècie. Sabem que necessitem intel·ligència artificial (IA) i, específicament, mètodes d’IA basats en l’aprenentatge a partir de les dades, que ens ajudin a abordar aquests reptes. El potencial és immens.

No obstant això, per fer realitat aquest potencial hem d’abordar nombroses barreres relacionades amb l’accés i l’anàlisi de dades valuoses —que, en molts casos, són de propietat privada—, amb una manca de principis ètics ben definits, amb limitacions legals i reguladores, amb reptes tècnics, amb uns clars interessos comercials que no estan necessàriament alineats amb el bé social i amb una petjada de carboni gens desdenyable dels sistemes actuals d’IA.

Quan els mètodes d’IA es fan servir en escenaris que tenen un impacte en la vida de milions de persones, com ara ciutats intel·ligents, sorgeixen desafiaments de governança i dilemes ètics importants. Com podem estar segurs que aplicar la IA de manera generalitzada no tindrà conseqüències negatives per a la societat? Les decisions algorítmiques quedaran fora del nostre control? Qui és responsable d’aquestes decisions? Aquests sistemes inclouran els mecanismes de seguretat necessaris per prevenir ciberatacs? Què passa amb l’ús maliciós de dades o la generació de contingut no veraç per servir interessos comercials, polítics o criminals? Aquestes preguntes són tan necessàries d’abordar com complexes, i fan que sigui imprescindible dotar-nos de principis ètics i normes de governança.

En l’última dècada s’han publicat nombroses propostes sobre principis ètics que cal respectar si es fa un ús generalitzat de la intel·ligència artificial, com ara l’Informe Menlo[1]; els principis ètics inclosos en les estratègies nacionals d’IA de més de 50 països del món; l’informe de la Comissió Europea per al desenvolupament d’una intel·ligència artificial fiable [2]; els principis de l’OCDE per al desenvolupament de la intel·ligència artificial [3], i diverses propostes professionals, com les de l’Institute of Electrical and Electronics Engineers (IEEE) [4] i l’Association for Computing Machinery (ACM) [5]. La majoria dels principis proposats anteriorment es podrien agrupar en la sigla FATEN, que es detalla a continuació i que és una extensió dels quatre principis bàsics de l’ètica mèdica [6].

F de justícia (fairness)

És a dir, sense discriminació. Els sistemes d’IA basats en l’aprenentatge a partir de dades poden discriminar per diversos motius, incloent-hi els biaixos en les dades utilitzades per entrenar els algoritmes, una tria inadequada d’un algoritme o model, i una interpretació parcial dels resultats. En els darrers set anys s’han fet públics diversos casos de discriminació algorítmica d’allò més impactants en àrees com la justícia penal [7], la concessió de crèdits [8], els recursos humans i la contractació [9], l’educació [10] i l’atenció mèdica [11]. La detecció i la mesura dels biaixos algorítmics i el desenvolupament d’algoritmes justos d’aprenentatge automàtic són àrees fèrtils de recerca, tal com ho il·lustren la Conferència ACM FaccT sobre equitat, responsabilitat i transparència [12], creada recentment; el programa d’investigació ELLIS sobre aprenentatge automàtic centrat en l’ésser humà, o l’Instituto de Inteligencia Artificial centrada en la Humanidad [ 13], també de creació recent, que és una de les 39 unitats de la xarxa ELLIS d’excel·lència científica en intel·ligència artificial.

A d’autonomia, rendició de comptes i augment de la intel·ligència

El principi d’autonomia es troba en el cor de l’ètica occidental. D’acord amb aquest principi, cada persona hauria de ser capaç d’escollir lliurement els seus pensaments i les seves accions. No obstant això, podem construir models computacionals d’intel·ligència artificial sobre les nostres personalitats, interessos, gustos, necessitats, fortaleses/debilitats i comportaments que siguin —i probablement són— emprats per influir subliminarment en les nostres decisions, opcions i accions.

Per tant, hem de garantir que els sistemes d’IA que tenen un impacte directe o indirecte en la vida de les persones respectin sempre l’autonomia humana. La lletra A també és rendició de comptes (accountability, en anglès), és a dir, claredat en l’atribució de responsabilitat relacionada amb les conseqüències de l’ús de mètodes d’IA. Finalment, la A també significa augmentar la intel·ligència, en comptes de reemplaçar-la: els sistemes d’IA s’han de fer servir per donar suport i complementar la presa de decisions humanes i no pas per substituir els humans.

T de confiança (trust) i transparència

La confiança és un pilar fonamental en les nostres relacions i sorgeix quan es compleixen tres condicions: competència, que és la capacitat de dur a terme amb èxit la tasca compromesa; fiabilitat, entesa com la competència sostinguda en el temps, i honestedat i transparència. Per tant, la T a FATEN també hi és per a la transparència. Un sistema de presa de decisions basat en dades és transparent quan els no experts poden observar-lo i entendre’l amb facilitat. Els models d’IA transparents, interpretables i explicables són especialment necessaris en els casos d’ús amb impacte social.

E de bEneficiència i equitat

El principi de la bEneficiència es refereix a maximitzar l’impacte positiu de la IA amb sostenibilitat, diversitat i veracitat. No podem ignorar el cost ambiental del desenvolupament tecnològic, especialment quan es tracta d’algoritmes d’aprenentatge profund, atesa la necessitat de grans quantitats de computació i dades de les quals poden aprendre.

La diversitat també és essencial. En primer lloc, en la composició dels equips que desenvolupen sistemes d’IA, per maximitzar la probabilitat de trobar solucions innovadores als reptes immensos als quals ens enfrontem[14] i desenvolupar solucions inclusives que siguin rellevants a les comunitats on s’implementaran. En segon lloc, cal incorporar criteris de diversitat en els algoritmes per minimitzar la prevalença dels filtres bombolla i els efectes de la càmera de ressonància, que contribueixen, almenys parcialment, a polaritzar l’opinió pública.

També hem de garantir la “veracitat” de les dades. Actualment podem generar algorítmicament textos, àudios, fotos i vídeos falsos mitjançant models generatius de xarxes neuronals profundes (coneguts com deep fakes) que són indistingibles, per als humans, del contingut real. Aquests continguts falsos, compartits per milions de persones, poden tenir impacte en la formació de l’opinió pública sobre temes de gran rellevància social, com ara les vacunes o els processos electorals.

E també significa equitat. Els principis de l’accés universal al coneixement i la democratització de la tecnologia estan en perill a causa del domini extrem dels gegants tecnològics dels Estats Units (Apple, Amazon, Microsoft, Facebook i Alphabet/Google) i la Xina (Tencent, Alibaba o Baidu). Aquest domini del mercat condueix al domini de les dades. De fet, la majoria d’aquests gegants tecnològics són empreses de dades que guanyen milers de milions de dòlars analitzant i monetitzant la informació que recopilen sobre els seus usuaris. Una part significativa d’aquestes dades tan valuoses sobre el comportament humà, que es podrien fer servir per al bé social, la generen i capturen aquestes empreses tecnològiques.

D’altra banda, en el segle XXI observem una polarització en la distribució de la riquesa. Segons el Global Wealth Report de Credit Suisse, les cent persones més riques del món acumulen més riquesa que els 4.000 milions de persones més pobres. Aquesta acumulació en mans de ben pocs s’ha atribuït, almenys de manera parcial, a la tecnologia i a la Quarta Revolució Industrial. Es podria argumentar que les dades, i especialment la capacitat d’aprofitar-les i donar-los sentit, són l’actiu que genera més riquesa (economia de dades). Per tant, si el nostre objectiu és maximitzar l’impacte positiu d’aquesta abundància de dades, hem de desenvolupar i promoure nous models de propietat, gestió, explotació i regulació d’aquestes.

N de no maleficiència

És a dir, minimitzar l’impacte negatiu que podria resultar de l’ús de mètodes d’IA. S’inclouen dins d’aquest principi la “prudència” en el desenvolupament de sistemes basats en IA; les garanties de fiabilitat, robustesa i reproductibilitat; la seguretat de les dades, i la preservació de la “privacitat”. És imprescindible verificar la seguretat i avaluar de manera exhaustiva els models d’IA abans de desplegar-los en el món real, particularment de xarxes neuronals profundes.

Com que els reptes són de naturalesa complexa, cal una combinació d’experts i expertes de diverses disciplines per tal que els projectes siguin un èxit. Aquesta naturalesa multidisciplinària ho fa encara més complex, però és necessària i particularment beneficiosa, ja que els equips inclourien especialistes en ètica.

Els òrgans de supervisió externa també són necessaris per garantir el compliment dels principis ètics. En els darrers anys, s’ha proposat crear la figura de l’administrador de dades (data stewards), responsable de la qualitat i governança de les dades en cada organització; comitès externs d’ètica de supervisió, i/o el nomenament d’un conseller/a amb responsabilitats de supervisió per garantir que els projectes amb impacte social estiguin alineats amb els principis de FATEN.

Una alternativa és exigir l’ús de processos, codis i sistemes oberts, a través del desplegament de regulacions que requereixin el seguiment de principis ètics i/o fomentant l’intercanvi de coneixement. A més, és imprescindible entendre les característiques culturals i socials de les societats en les quals es despleguen els projectes. Per tant, és absolutament necessari treballar amb les institucions locals i la societat civil dels països i les regions on es duran a terme els projectes.

És hora d’actuar com a societat, definint col·lectivament els horitzons ètics i polítics de la IA, perquè estem parlant de ciència i tecnologia, però també de drets, d’economia, de democràcia, d’igualtat, d’inclusió, de ciutadania, de pau i de poder.

És hora d’educar, de conèixer, de no caure en el sensacionalisme apocalíptic, de ser amos del nostre destí, de regular la IA amb intel·ligència i de centrar-nos a aturar les pràctiques abusives i els danys socials causats per les empreses que hi ha darrere dels avenços de la intel·ligència artificial, que en l’última dècada han acumulat un poder sense precedents i han contribuït a la desigualtat social.

És hora d’invertir en una intel·ligència artificial que contribueixi al progrés, sense deixar ningú enrere i sense destruir, durant el procés, el planeta. Com deia Theodore Roosevelt, “de vegades cal una revolució”. No tenim un planeta B, de manera que us convido a unir-vos a la revolució de la IA per i per a les persones i el planeta.

[1] Dittrich, D. i Kenneally, E. The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research. Departament de Seguretat Nacional dels Estats Units, 2012.

[2] Comissió Europea. Ethics guidelines for trustworthy AI. Unió Europea, 2019.

[3] OCDE. Principios de la OCDE sobre IA. OCDE, França, 2019.

[4] Institute of Electrical and Electronics Engineers. Diseño éticamente alineado. Piscataway, NJ: IEEE, 2017.

[5] Association for Computing Machinery. Código de Ética y Conducta Profesional. ACM, Nova York, 2018.

[6] Gillon, R. “Medical ethics: four principles plus attention to scope”. British Medical Journal. Regne Unit, 1994.

[7] Angwin, J., Larson, J., Mattu, S. i Kirchner, L. Machine Bias: There’s software used across the country to predict future criminals and it is biased against blacks. Pro Publica, Nova York. 2016.

[8] Blattner, L. i Nelson, S. How Costly is Noise? Data and Disparities in Consumer Credit. 2021. http://ow.ly/WpF250OkhuO

[9] Dastin, J. Amazon scraps secret AI recruiting tool that showed bias against women. 2018. http://ow.ly/vRcB50Okhro

[10] Perry, A. M. i Turner, N. AI is coming to schools, and if we’re not careful, so will its biases. Brookings, 2019. http://ow.ly/wgXN50OkhsJ

[11] Ledford, H. Millions of black people affected by racial bias in health-care algorithms. 2019. http://ow.ly/nQiH50Okhti

Referències bibliogràfiques

Oliver, N. “Artificial Intelligence for Social Good: The Way Forward”, capítol 11 del SRIP Report 2022. SRIP Report of the European Commission, 664-707. 2022.

Oliver, N. “Governance in the Era of Data-driven Decision-making Algorithms”. Women Shaping Global Economic Governance. Center for Economic Policy Research Press (CEPR), 2019.

Geschke, D., Lorenz, J., i Holtz, P. “The triple-filter bubble: Using agent-based modelling to test a meta-theoretical framework for the emergence of filter bubbles and echo chambers”. British Journal of Social Psychology, 58, 129-149. 2019.

Shorrocks, A. i Hechler-Fayd’herbe, N. Global Wealth Report 2019: Global wealth rises by 2.6% driven by US & China, despite trade tensions. Credit Suisse, Zúric, 2019.

Verhulst, S. G. “The Three Goals and Five Functions of Data Stewards. Data Stewards: a new Role and Responsibility for an AI and Data Age”. Medium i The Data Stewards Network, Nova York, 2018.

El butlletí

Subscriu-te al nostre butlletí per estar informat de les novetats de Barcelona Metròpolis