La ignorància dels algoritmes i les noves realitats sintètiques

Les tecnologies d’intel·ligència artificial són una expressió del que som. Quan tot és possible, què decidim fer? Tenim a les mans eines perfectes tant per a la creació com per al control, que augmenten i perpetuen les desigualtats socials, però que, alhora, ens permeten enfrontar-nos al repte contemporani de revisar les maneres de mirar el món.

L’oportunitat d’un nou monstre

El 1818 es va publicar la novel·la Frankenstein o el modern Prometeu de Mary Shelley, que descriu la gestació d’una creació extraordinària, una promesa amb un potencial infinit que primer es viu des de l’esperança i, després, des de l’horror. El monstre es fa present en el moment en què el seu creador el veu despertar-se i se sent responsable d’allò a què acaba de donar vida.

Aquesta història és molt similar al que estem vivint actualment amb l’ús més estès i popular dels models generatius d’intel·ligència artificial (IA), on, davant la integració d’aquestes eines en espais tant laborals com domèstics, sorgeixen moltes preguntes: Què hem creat? Quin potencial i quin impacte té? És realment intel·ligent? I, si ho és, és realment intel·ligència humana?

Aquests interrogants omplen debats i espais en mitjans de comunicació i generen recerca en diverses universitats, la qual cosa crea espais d’opinió profundament polaritzats. L’investigador del Massachusetts Institute of Technology (MIT) Max Tegmark va publicar el mes de març passat una carta signada per personalitats clau del sector tecnològic (entre elles, Yoshua Bengio, guanyador del Turing Prize; Elon Musk, CEO de Tesla, o Steve Wozniak, cofundador d’Apple), en què demanaven a les principals empreses desenvolupadores d’IA que aturessin qualsevol desenvolupament relacionat amb els sistemes d’IA que fossin superiors, en dimensió, als existents. L’objectiu principal d’aquesta demanda era donar espai als legisladors, als polítics i a la societat en general per integrar aquestes tecnologies a una velocitat assumible. Avui en dia, la carta, que ja ha rebut més de 27.000 suports, no ha transcendit més enllà dels mitjans, i aquestes empreses no han frenat cap dels seus projectes de desenvolupament.

A més, les preocupacions de tota mena expressades per creadors —per exemple, que l’aparició de la IA generativa devaluarà la seva feina— han estat perfectament exposades per periodistes i autors com Yuval Noah Harari o Dani Di Placido. Aquesta nova onada de models algorítmics generatius ha posat en qüestió espais i tècniques que, fins fa poc, pensàvem que eren segurs i molt difícils d’automatitzar, com són l’escriptura i els llenguatges visuals. Ara, més que mai, ens plantegem quin valor té allò que fem com a humans, quin impacte té i en què es diferencia la nostra intel·ligència de la d’una màquina.

Recentment, l’Oficina de Drets d’Autor dels Estats Units ha dictaminat que les imatges generades per IA “no són producte de l’autoria humana” i, per tant, no poden ser objecte de drets d’autor. Els autors estan desenvolupant eines per protegir el seu treball, però d’ara endavant serà una nova lluita constant en l’espai de la creació. Fa poc, la revista de ciència-ficció i fantasia Clarkesworld Magazine va haver de tancar temporalment les inscripcions després de rebre una allau d’històries escrites amb ChatGPT. Com sabrem si el 100% de les coses que llegim i veiem a les xarxes socials les ha escrit una persona? De moment, és impossible, perquè no tenim eines per esbrinar-ho, i aquí hi ha un gran perill i una gran oportunitat.

Avui, les eines polítiques i legals que tenim per defensar certs col·lectius i interessos socials necessiten camins més lents, perquè es puguin pensar i legislar de manera justa les capacitats de les empreses que hi ha darrere d’aquestes tecnologies. Aquest desequilibri entre la velocitat a la qual desenvolupem eines de manera privada i les maneres com entenem l’efecte que tenen sobre nosaltres, sobre la societat i el planeta és decisiu per esbrinar si el que estem creant és el monstre de Mary Shelley o una eina plena de potencial.

Sota la catifa artificial

Un aspecte d’aquesta tecnologia que cal tenir en compte és que, com en la majoria d’aquests avenços, hi ha un cert nivell d’alienació. La IA pot semblar una força etèria, que resideix als núvols, neta i un punt sobrenatural, però està formada per quantitats enormes de recursos naturals, combustibles fòssils, treball humà i infraestructures massives. Eines com ChatGPT poden fer l’efecte de ser lleugeres i estar desconnectades de qualsevol realitat material, però, de fet, requereixen quantitats massives de potència de càlcul i recursos extractius per funcionar[1].

Alguns personatges públics, com el Dr. Sean Holden, professor associat a la Universitat de Cambridge, o el reconegut lingüista Noam Chomsky[2] expliquen molt bé els límits de la intel·ligència artificial i les raons per les quals aquesta tecnologia queda lluny de ser perfecta. Per això aquí utilitzem el concepte d’ignorància artificial per referir-nos a tots aquests fenòmens generalment entesos com a errors o espais d’estupidesa que venen determinats per la tecnologia algorítmica. Es poden posar dos exemples: l’octubre del 2021, la Imane, una mare migrant marroquina de 44 anys, divorciada, era interrogada a Rotterdam mentre es recuperava d’una cirurgia abdominal. Els ajuts públics que li permetien pagar el lloguer i comprar menjar per als seus tres fills estaven en risc, i no només això, hi havia la possibilitat que fos acusada de frau. Havia de demostrar la seva innocència en un procés burocràtic difícil i costós perquè un algoritme la considerava “d’alt risc” per cometre frau en l’obtenció d’ajuts socials.

Aquest no és un cas aïllat, sinó que forma part d’un patró global en el qual els governs i les empreses utilitzen algoritmes per reduir costos i augmentar l’eficiència. Com la Imane, a Rotterdam, més de 20.000 famílies han estat falsament acusades per un algoritme[3] de rebre ajuts públics de manera fraudulenta. Sovint aquests sistemes no funcionen com es preveu i poden reproduir biaixos preocupants, i això, de vegades, afecta de manera irrecuperable comunitats que precisament són les que necessiten més ajuts.

Un altre exemple més popular és l’algoritme que Amazon utilitzava el 2015 per fer la selecció de personal i realitzar recomanacions d’increments salarials. L’objectiu d’aquest sistema era que, per cada mil currículums introduïts, s’indiqués quins cinc s’havien de contractar o a qui calia augmentar el sou. El problema és que les dades que s’havien fet servir per entrenar l’algoritme procedien dels deu anys anteriors en una empresa que ja tenia, de base, un biaix que donava molta més preferència a homes que a dones. En conseqüència, el sistema va començar a descartar i a penalitzar tots els currículums dels quals es pogués extreure qualsevol inferència de gènere femení, reproduint exactament un model injust, que, si no hagués estat per l’evident desequilibri de gènere, hauria passat absolutament inadvertit[4].

De nou, l’arrel del problema d’aquest algoritme és que basa totes les seves respostes en models estadístics. Aquestes tecnologies no distingeixen entre la veritat i la mentida; únicament busquen patrons. Els algoritmes predictius d’avui són màquines increïblement útils, però que poden generar resultats erronis profundament desconnectats de la realitat. Una IA tindrà un marge d’error molt més petit que una persona experta en meteorologia per preveure si demà plourà, però no entendrà mai què significa que plogui, ni per què plou, ni el que això pot suposar per a una cultura o un poble. No existeix coneixement del perquè, només del què, i aquest caràcter desvinculat i descontextualitzat és especialment perillós quan s’actua en espais socials en els quals els prejudicis generalment es perpetuen i els individus i les institucions poden justificar certs comportaments amb la senzilla resposta de “l’algoritme ho recomana”.

Quan la coral canta, jo ballo

Quan hom s’adona que la majoria d’usos actuals d’aquestes tecnologies en l’esfera pública estan vinculats al control, l’optimització i la supervisió de la ciutadania i els recursos, es fa palès que existeix una profunda falta d’imaginació en els espais d’ús de la intel·ligència artificial generativa. Si volem revertir-ho, hem de pensar en com utilitzar-la responent a preguntes diferents.

Un dels exercicis que feia sovint amb estudiants a l’aula era el de comprar quatre diaris de perspectives polítiques molt diferents. Amb els alumnes trobàvem la mateixa notícia i analitzàvem com l’explicava cada mitjà. En el reconeixement d’aquesta pluralitat de versions sempre emergien debats crítics molt més fonamentats i desapareixien les perspectives úniques i les posicions enrocades. Un dels futurs que veiem en l’ús de les IA el trobem, precisament, en la seva capacitat de ser plurals. Actualment, un dels projectes en desenvolupament, en el qual treballem, és una integració per a navegadors que permeti oferir una versió automatitzada de qualsevol notícia, en la qual es donin diverses lectures crítiques alternatives sobre els mateixos fets. Una nova manera d’entendre l’actualitat a través de molts altres ulls, tots ells amb el seu propi biaix.

El contrari d’un biaix no és l’eliminació d’aquest, no és la neutralitat absoluta; és la transparència, és aixecar la catifa i entendre com és el biaix i en què afecta. Un biaix pot ser positiu, pot donar una perspectiva concreta sobre una comunitat no representada, ja que la neutralitat mai existeix del tot, sempre hi ha una mirada, un coneixement situat[5]. El conflicte apareix quan s’utilitza una eina de la qual no s’és conscient que té una mirada predefinida amb què es representen els interessos d’uns pocs, sovint poderosos. Si som capaços d’invertir el biaix i fer-ne un ús transparent, aquesta tecnologia ens pot donar un nou espai on podrem visualitzar la tensió entre idees diferents i estar més exposats a perspectives plurals.

Necessitem màquines que ens donin espai per a la reconsideració. Però és difícil: requereix valentia. Una màquina que ens ajudi a negar-nos la comoditat de ser sempre la mateixa persona, aquella que va arribar a una resposta fixa fa temps i mai ha tingut cap motiu per dubtar-ne. Una màquina que, en altres paraules, ens ajudi a mantenir-nos oberts.

Com va dir F. Scott Fitzgerald, “la prova d’una intel·ligència de primera categoria és la capacitat de mantenir dues idees oposades en ment al mateix temps i, així i tot, conservar la capacitat d’operar al món”[6]. La voluntat de canviar d’opinió és un superpoder en l’era moderna, i aquestes tecnologies ens poden ajudar, en un moment de màxima polarització, a variar el rumb i estar més oberts a idees diferents.

Les realitats sintètiques

Des del febrer del 2022, a Domestic Data Streamers hem estat desenvolupant un programa d’experimentació, formació i debat sobre les possibles aplicacions de les tecnologies d’intel·ligència artificial generativa. El projecte principal en què hem treballat ha estat el desenvolupament d’eines per a la recreació de memòries sintètiques a través de la generació d’imatges. La principal diferència amb altres softwares d’edició d’imatges és que la IA té la capacitat de crear imatges directament des de la descripció d’una escena, i amb cert entrenament es poden aconseguir resultats de molta qualitat a una velocitat de cinc a deu segons. Això fa que sigui accessible i que puguem iterar ràpidament, condicions fonamentals per treballar amb un gran nombre de col·lectius i individus.

Les aplicacions són molt extenses. Ja estem actuant amb treballadors socials, psicòlegs i experts mèdics en demència i psiconeurologia per entendre l’impacte positiu que poden tenir les memòries sintètiques durant l’acompanyament en el progrés de malalties degeneratives com l’alzheimer o la demència senil. Els primers resultats estan essent especialment emocionants i, pròximament, els publicarem documentats.

Aquesta tecnologia i aquests processos també els estem portant a altres espais, com ara la reconstrucció de la memòria històrica de comunitats de refugiats a Atenes o dels supervivents d’Hiroshima i Nagasaki, al Japó. Són comunitats que, per diverses raons, han perdut documentació visual sobre moments personals, sovint d’un gran interès històric; memòries esborrades de l’espai de la cultura visual que ara tenim la possibilitat d’evocar amb una tecnologia més assequible, des de les comunitats protagonistes, que generalment són excloses de l’accés a les últimes tecnologies, com són la gent gran, les persones migrants o els pacients de malalties mentals. Aquestes eines ens poden permetre entendre’ns tant a nosaltres com a les comunitats pertanyents a altres temps i realitats socials. Hem de ser capaços d’apropar-les de manera transparent, responsable i col·laborativa a tothom; la realitat sintètica pot ser un espai entre la ficció i la realitat, un espai intermedi en el qual puguem trobar-nos.

Reimaginar la ciutat

Aquesta mateixa tecnologia obre noves possibilitats en el procés de codisseny de l’espai públic. En els últims mesos, hem treballat en diverses sessions amb estudis d’arquitectura internacionals per entendre com es poden incorporar aquestes eines als processos de disseny i quin impacte poden arribar a tenir de cara a integrar veïns, comerços i altres agents en el desenvolupament de les propostes d’urbanisme i arquitectura. Amb aquestes tecnologies es facilita l’accés a la visualització d’alternatives urbanes de manera molt assequible: es poden repensar carrers, edificis i usos de l’espai públic en qüestió de segons. El límit més gran, generalment, és la imaginació d’un mateix.

Les imatges, per descomptat, tenen un aspecte estrany i poc detallat, no són rivals per al treball d’un arquitecte experimentat, però permeten visualitzar resultats amb prou detall com per fer-se una idea de les possibilitats de l’arquitectura alternativa. És una eina més per avançar molt ràpidament en la visualització del canvi i, conseqüentment, permet a veïns i habitants de la ciutat comprendre millor i donar suport a les alternatives urbanístiques que més els interessin. El perill resideix en el fet que els resultats d’aquestes eines, en ser tan visuals, atractius i assequibles, poden acabar passant per sobre d’altres factors importants, com poden ser les observacions d’ús, les dades demogràfiques o les diverses necessitats socials de cada espai. La visualització del canvi és una gran eina per a les comunitats, però s’ha d’utilitzar de manera responsable i informada.

Els punts de les preguntes

Quan observo com aquestes tecnologies es despleguen sobre la societat, es fa evident que encara som molt lluny de tenir una perspectiva plural i humanista. Sembla que les converses a tots els mitjans estan enfocades en la tecnologia en si mateixa, en el fenomen gairebé màgic que sembla contenir. Poques persones descriurien el funcionament d’un cotxe, un correu electrònic o un àudio de WhatsApp com una eina màgica, però la primera vegada que vam estar exposats a aquestes tecnologies ens ho semblaven. En el cas de la intel·ligència artificial generativa també succeeix un fenomen similar. I aquest fet ens distreu del que realment és important: Quin impacte volem que tinguin aquestes eines en la nostra societat? Per què les estem desenvolupant? Qui hi té accés? Qui se’n beneficia? A quins interessos responen i com ho fem perquè operin sota una sèrie de valors?

Si la intel·ligència artificial és la resposta, quina és la pregunta?

[1]Crawford, K. The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021.

[2] Katz, Y. “Noam Chomsky on Where Artificial Intelligence Went Wrong”. The Atlantic. 2012. http://ow.ly/58Qv50NW6vi

[3]  Burgess, M., Schot, E. i Geiger, G. “This Algorithm Could Ruin Your Life”. Wired. 2023. http://ow.ly/zrkF50NW6Gu

[4] Larson, E. “Amazon Sued for Alleged Race, Gender Bias in Corporate Hires”. Bloomberg. 2021. http://ow.ly/mG3950NW6rT

[5] Haraway, D. “Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective”. Feminist Studies, 14(3), 575-599. 1988. http://ow.ly/Wyyc50OoYwV 

[6]  Cita original: “The test of a first-rate intelligence is the ability to hold two opposed ideas in mind at the same time and still retain the ability to function”.

Referències bibliogràfiques

Lohr, S. Data-ism: The Revolution Transforming Decision Making, Consumer Behavior, and Almost Everything Else. HarperBusiness, 2015.

Pasquinelli, M. i Joler, V. “The Nooscope manifested: AI as instrument of knowledge extractivism”AI & Society, 36(4), 1263-1280. 2020. http://ow.ly/IRvb50NWaKS

El butlletí

Subscriu-te al nostre butlletí per estar informat de les novetats de Barcelona Metròpolis