Inteligencia artificial ética, responsable y para el bien social

Ilustración © Romualdo Faura

Cuando se utiliza inteligencia artificial en escenarios que impactan en millones de personas, surgen desafíos de gobernanza y dilemas éticos. ¿Cómo podemos estar seguros de que las decisiones algorítmicas se aplican bajo el control social? Muchas de las propuestas sobre principios éticos se agrupan bajo la sigla inglesa FATEN: justicia, autonomía, confianza, equidad y no maleficencia.

Vivimos en una época de prosperidad, pero también nos enfrentamos a tremendos desafíos globales que amenazan nuestra existencia como especie. Sabemos que necesitamos inteligencia artificial (IA) y, específicamente, métodos de IA basados en el aprendizaje a partir de datos, para ayudarnos a abordar estos retos. El potencial es inmenso.

Sin embargo, para realizar este potencial debemos abordar múltiples barreras relacionadas con el acceso y el análisis de datos valiosos —que, en muchos casos, son de propiedad privada—, con una falta de principios éticos bien definidos, con limitaciones legales y regulatorias, con retos técnicos, con claros intereses comerciales no necesariamente alineados con el bien social y con una huella de carbono no despreciable de los sistemas actuales de IA.

Cuando se utilizan métodos de IA en escenarios con impacto en la vida de millones de personas, como son las ciudades inteligentes, surgen importantes desafíos de gobernanza y dilemas éticos. ¿Cómo podemos estar seguros de que aplicar la IA de manera generalizada no tendrá consecuencias negativas para la sociedad? ¿Estarán las decisiones algorítmicas fuera de nuestro control? ¿Quién es responsable de tales decisiones? ¿Incluirán estos sistemas los mecanismos de seguridad necesarios para prevenir ciberataques? ¿Qué pasa con el uso malicioso de los datos o la generación de contenido no veraz para servir intereses comerciales, políticos o criminales? Estas son preguntas tan necesarias como complejas de abordar, que hacen imprescindible dotarnos de principios éticos y normas de gobernanza.

En la última década, se han publicado muchas propuestas sobre principios éticos a respetar si se hace un uso generalizado de la inteligencia artificial, entre ellos, el Informe Menlo[1]; los principios éticos incluidos en las estrategias nacionales de IA de más de 50 países del mundo; el informe de la Comisión Europea para el desarrollo de una inteligencia artificial confiable[2]; los principios de la OCDE para el desarrollo de la inteligencia artificial[3]; y diversas propuestas profesionales, como las del Institute of Electrical and Electronics Engineers (IEEE)[4] y de la Association for Computing Machinery (ACM)[5]. La mayoría de los principios propuestos anteriormente podrían agruparse bajo la sigla FATEN, que se desglosa a continuación y que es una extensión de los cuatro principios básicos de la ética médica[6].

F de justicia (fairness)

Es decir, sin discriminación. Los sistemas de IA basados en el aprendizaje a partir de datos pueden discriminar debido a varias razones, incluidos los sesgos en los datos utilizados para entrenar los algoritmos, una elección inadecuada de un algoritmo o modelo, y una interpretación sesgada de los resultados. En los últimos siete años, se han hecho públicos muchos casos altamente impactantes de discriminación algorítmica en áreas como la justicia penal[7], la concesión de créditos[8], los recursos humanos y la contratación[9], la educación[10] y la atención médica[11]. La detección y medición de los sesgos algorítmicos y el desarrollo de algoritmos justos de aprendizaje automático son áreas fértiles de investigación, como ilustran la recientemente creada Conferencia ACM FaccT sobre equidad, responsabilidad y transparencia[12], el programa de investigación ELLIS sobre aprendizaje automático centrado en el ser humano o el recién creado Instituto de Inteligencia Artificial centrado en la Humanidad[13], que es una de las 39 unidades de la red ELLIS de excelencia científica en inteligencia artificial.

A de autonomía, rendición de cuentas y aumento de la inteligencia

El principio de autonomía está en el corazón de la ética occidental. Según este principio, cada persona debería poder elegir libremente sus propios pensamientos y acciones. Sin embargo, podemos construir modelos computacionales de inteligencia artificial sobre nuestras personalidades, intereses, gustos, necesidades, fortalezas/debilidades y comportamientos que sean —y probablemente son— utilizados para influir subliminalmente en nuestras decisiones, elecciones y acciones.

Por tanto, debemos garantizar que los sistemas de IA que tienen un impacto directo o indirecto en la vida de las personas respeten siempre la autonomía humana. La letra A es también de rendición de cuentas (accountability, en inglés), es decir, claridad en la atribución de responsabilidad relacionada con las consecuencias del uso de métodos de IA. Finalmente, la A significa también aumento de la inteligencia, en lugar de reemplazo de esta: los sistemas de IA deben usarse para apoyar y complementar la toma de decisiones humanas y no para reemplazar a los humanos.

T de confianza (trust) y transparencia

La confianza es un pilar fundamental en nuestras relaciones y surge cuando se cumplen tres condiciones: competencia, que es la capacidad de llevar a cabo con éxito la tarea comprometida; fiabilidad, entendida como la competencia sostenida en el tiempo; y honestidad y transparencia. Por lo tanto, la T en FATEN también es para la transparencia. Un sistema de toma de decisiones basado en datos es transparente cuando los no expertos pueden observarlo y entenderlo fácilmente. Los modelos de IA transparentes, interpretables y explicables son necesarios especialmente en los casos de uso con impacto social.

E de bEneficencia y equidad

El principio de la bEneficencia se refiere a maximizar el impacto positivo de la IA con sostenibilidad, diversidad y veracidad. No podemos obviar el coste ambiental del desarrollo tecnológico, particularmente cuando se trata de algoritmos de aprendizaje profundo, dada su necesidad de grandes cantidades de computación y de datos de los que pueden aprender.

La diversidad también es de suma importancia. En primer lugar, en la composición de los equipos que desarrollan sistemas de IA para maximizar la probabilidad de encontrar soluciones innovadoras a los inmensos desafíos con que nos enfrentamos[14] y desarrollar soluciones inclusivas que sean relevantes en las comunidades donde se implementarán. En segundo lugar, es preciso incorporar criterios de diversidad en los algoritmos para minimizar la prevalencia de filtros burbuja y efectos de cámara de resonancia, que contribuyen, al menos parcialmente, a la polarización de la opinión pública.

También debemos garantizar la “veracidad” de los datos. Hoy en día, podemos generar algorítmicamente textos, audios, fotos y vídeos falsos por medio de modelos generativos de redes neuronales profundas (conocidos como deep fakes) que son indistinguibles, para los humanos, del contenido real. Estos contenidos falsos, compartidos por millones de personas, pueden impactar la formación de la opinión pública sobre temas de gran relevancia social, como las vacunas o los procesos electorales.

E también significa equidad. Los principios del acceso universal al conocimiento y la democratización de la tecnología están en peligro debido al dominio extremo de los gigantes tecnológicos de los Estados Unidos (Apple, Amazon, Microsoft, Facebook y Alphabet/Google) y China (Tencent, Alibaba o Baidu). Este dominio del mercado conduce al dominio de los datos. De hecho, la mayoría de estos gigantes de la tecnología son empresas de datos que ganan miles de millones de dólares analizando y monetizando la información que recopilan sobre sus usuarios. Una parte significativa de los valiosos datos de comportamiento humano que podrían utilizarse para el bien social es generada y capturada por estas empresas de tecnología.

Además, en el siglo xxi estamos observando una polarización en la distribución de la riqueza. Según el Global Wealth Report de Credit Suisse, las cien personas más ricas del mundo acumulan más riqueza que los 4.000 millones de personas más pobres. Esta acumulación en manos de muy pocos se ha atribuido, al menos parcialmente, a la tecnología y a la Cuarta Revolución Industrial. Se podría argumentar que los datos, y especialmente la capacidad de aprovecharlos y darles sentido, son el activo que genera más riqueza (economía de datos). Por ello, si nuestro objetivo es maximizar el impacto positivo de esta abundancia de datos, debemos desarrollar y promover nuevos modelos de propiedad, gestión, explotación y regulación de estos.

N de no maleficencia

Es decir, minimizar el impacto negativo que podría resultar del uso de métodos de IA. Dentro de este principio, están incluidas la “prudencia” en el desarrollo de sistemas basados en IA; las garantías de fiabilidad, robustez y reproducibilidad; la seguridad de los datos; y la preservación de la “privacidad”. La verificación de la seguridad y la evaluación exhaustiva de los modelos de IA antes de desplegarse en el mundo real, en particular de redes neuronales profundas, son imprescindibles.

Dada la naturaleza compleja de los retos, es necesaria una combinación de expertos y expertas de diferentes disciplinas para que los proyectos tengan éxito. Esta naturaleza multidisciplinar agrega complejidad, pero es necesaria y particularmente beneficiosa, ya que los equipos incluirían especialistas en ética.

Los órganos de supervisión externa también son necesarios para garantizar el cumplimiento de los principios éticos. En los últimos años, se ha propuesto crear la figura del administrador de datos (data stewards), responsable de la calidad y la gobernanza de los datos en cada organización; comités de ética de supervisión externa; y/o el nombramiento de un consejero/a con responsabilidades de supervisión para garantizar que los proyectos con impacto social estén alineados con los principios FATEN.

Una alternativa es exigir el uso de procesos, códigos y sistemas abiertos, mediante el despliegue de regulaciones que requieran que se sigan los principios éticos y/o fomentando la compartición de conocimiento. Además, es imprescindible comprender las características culturales y sociales de las sociedades donde se despliegan los proyectos. Por lo tanto, trabajar con las instituciones locales y la sociedad civil de los países y regiones donde se llevarán a cabo los proyectos es absolutamente necesario.

Es momento de actuar como sociedad, definiendo colectivamente los horizontes éticos y políticos de la IA, porque estamos hablando de ciencia y tecnología, pero también de derechos, de economía, de democracia, de igualdad, de inclusión, de ciudadanía, de paz y de poder.

Es tiempo de educar, de conocer, de no dejarnos caer en el sensacionalismo apocalíptico, de ser dueños de nuestro destino, de regular la IA con inteligencia y de enfocarnos en detener las prácticas abusivas y el daño social causado por las empresas que están detrás de los avances de la inteligencia artificial, que en la última década han acumulado poder sin precedentes y han contribuido a la desigualdad social.

Es tiempo de invertir en una inteligencia artificial que contribuya al progreso, sin dejar a nadie atrás y sin destruir el planeta en el proceso. Parafraseando a Theodore Roosevelt, “a veces, es necesaria una revolución”. Como no hay un planeta B, les invito a unirse a la revolución de la IA por y para las personas y el planeta.

[1] Dittrich, D. i Kenneally, E. The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research. Departament de Seguretat Nacional dels Estats Units, 2012.

[2] Comissió Europea. Ethics guidelines for trustworthy AI. Unió Europea, 2019.

[3] OCDE. Principios de la OCDE sobre IA. OCDE, França, 2019.

[4] Institute of Electrical and Electronics Engineers. Diseño éticamente alineado. Piscataway, NJ: IEEE, 2017.

[5] Association for Computing Machinery. Código de Ética y Conducta Profesional. ACM, Nova York, 2018.

[6] Gillon, R. “Medical ethics: four principles plus attention to scope”. British Medical Journal. Regne Unit, 1994.

[7] Angwin, J., Larson, J., Mattu, S. i Kirchner, L. Machine Bias: There’s software used across the country to predict future criminals and it is biased against blacks. Pro Publica, Nova York. 2016.

[8] Blattner, L. i Nelson, S. How Costly is Noise? Data and Disparities in Consumer Credit. 2021. http://ow.ly/WpF250OkhuO

[9] Dastin, J. Amazon scraps secret AI recruiting tool that showed bias against women. 2018. http://ow.ly/vRcB50Okhro

[10] Perry, A. M. i Turner, N. AI is coming to schools, and if we’re not careful, so will its biases. Brookings, 2019. http://ow.ly/wgXN50OkhsJ

[11] Ledford, H. Millions of black people affected by racial bias in health-care algorithms. 2019. http://ow.ly/nQiH50Okhti

Referencias bibliográficas

Oliver, N. “Artificial Intelligence for Social Good: The Way Forward”, capítol 11 del SRIP Report 2022. SRIP Report of the European Commission, 664-707. 2022.

Oliver, N. “Governance in the Era of Data-driven Decision-making Algorithms”. Women Shaping Global Economic Governance. Center for Economic Policy Research Press (CEPR), 2019.

Geschke, D., Lorenz, J., i Holtz, P. “The triple-filter bubble: Using agent-based modelling to test a meta-theoretical framework for the emergence of filter bubbles and echo chambers”. British Journal of Social Psychology, 58, 129-149. 2019.

Shorrocks, A. i Hechler-Fayd’herbe, N. Global Wealth Report 2019: Global wealth rises by 2.6% driven by US & China, despite trade tensions. Credit Suisse, Zúric, 2019.

Verhulst, S. G. “The Three Goals and Five Functions of Data Stewards. Data Stewards: a new Role and Responsibility for an AI and Data Age”. Medium i The Data Stewards Network, Nova York, 2018.

El boletín

Suscríbete a nuestro boletín para estar informado de las novedades de Barcelona Metròpolis