Algorights: “Queremos una inteligencia artificial más democrática”

Derechos de Ciudadanía ha entrevistado a Algorights, un conjunto de personas de diferentes ámbitos y con conocimientos variados a quienes une el hecho de creer que la sociedad civil tiene que tener un papel clave en el desarrollo de la inteligencia artificial (IA). Eso lo hacen a través del pensamiento crítico, la colaboración, y la creación de espacios de cuidados; espacios con y para las personas.

Imatge d'un ordinador portàtil
20/01/2022 - 11:06 h - Derechos Digitales Ajuntament de Barcelona

¿Cómo y cuándo nace Algorights?

Algorights es un espacio multidisciplinar, diverso y plural. Debatimos en torno a diferentes temas para aprender y discutir diferentes visiones como herramienta de apoderamiento de todas las integrantes y de la misma comunidad.

Surge primero como grupo de aprendizaje (todo empieza con una veintena de personas haciendo juntas el curso «Elements of AI» el verano de 2020). Este grupo original fue creciendo e incorporando a más de 50 personas de diferentes disciplinas y sectores. Nos habíamos ido encontrando en diferentes foros sobre IA y derechos humanos.

¿En qué (o por qué) lucháis?

El objetivo de la comunidad es promover la democratización del acceso, la creación y la aplicación del conocimiento de la IA, desde la perspectiva de los derechos humanos.

Nos proponemos velar por el cumplimiento de los derechos humanos en el desarrollo y aplicación de tecnologías de IA. Creemos firmemente que la sociedad civil tiene que estar, no solo en el debate sobre la creación de estas tecnologías, sino también en los procesos de decisión en cuanto a diseño, implementación y evaluación.

¿Qué es exactamente la IA?

Esta es una de las preguntas «trampa». La IA es una línea de pensamiento y trabajo que aglutina diferentes disciplinas como la filosofía, la neurociencia, las matemáticas y la informática. Se trata de intentar reproducir la inteligencia humana con una máquina. Este mismo planteamiento tiene diferentes problemas, como el hecho de que no tenemos una definición concreta de inteligencia. El consenso es, pues, la capacidad de «razonar». ¡Pero tampoco sabemos a ciencia cierta cómo funciona el cerebro!

Así pues, realmente, hoy por hoy no tenemos inteligencia artificial. Tenemos máquinas con capacidad de procesamiento muy grande que son capaces “de aprender” muy rápido a identificar patrones y, de acuerdo con este procesamiento e identificación, hacer predicciones para un problema determinado.

Eso quiere decir que tampoco tenemos una inteligencia general artificial capaz de hacer cualquier cosa sino que lo que existe son sistemas con IA que son expertos en un tema concreto. Por ejemplo, el sistema de recomendación de contenido de las plataformas de vídeo coge muchos datos sobre una persona (no solo aquello que ha visto, sino también cuando lo ha visto, con qué duración, qué ha visto gente de su entorno o gente con quien está conectada; ¡incluso qué ha comprado últimamente!). Basándose en eso hacen una predicción de qué puede gustarle y le recomiendan unos contenidos concretos. Pero estos sistemas, por ejemplo, no son capaces de identificar objetos en una fotografía, no han sido diseñados para hacerlo.

¿Qué tienen que ver los algoritmos y la IA con los derechos humanos?

Con el ejemplo anterior hemos explicado de una manera muy simple cómo funciona uno de los algoritmos (los sistemas de IA lo son) que nos recomiendan contenidos. No siempre somos conscientes de que prácticamente todos los servicios digitales que utilizamos tienen un grado u otro de aplicación de estas tecnologías. Deciden las ofertas de trabajo que vemos, qué ruta cogemos para llegar a un lugar, los contenidos que se nos ofrecen… Estas aplicaciones nos pueden parecer inocuas o podemos incluso pensar que mejoran la interacción y experiencia con los servicios que usamos, pero hay casos en que las decisiones que toman pueden vulnerar nuestros derechos y dejarse en un estado de desprotección e inferioridad. Tenemos ejemplos chalados, como el caso de la interferencia de Facebook a diferentes elecciones o los algoritmos de reconocimiento facial que no reconocen personas racializadas. En otras ocasiones, lo que hacen los algoritmos es reproducir y maximizar problemas sociales estructurales, como en los casos de predicción de delitos o de asignación de ayudas.

¿Los algoritmos discriminan? ¿Tenéis ejemplos en el Estado español o Cataluña?

Tenemos una variedad de casos que muestran que los procesos automatizados corren el peligro de replicar y amplificar las opresiones y las dinámicas de poder de nuestras sociedades. En España tenemos el ejemplo del programa Bosco, que utiliza el Gobierno español para otorgar el bono social eléctrico. La organización CIVIO denunció que se estaban negando ayudas a personas que tenían el derecho de recibirlas y llevó el caso ante el Consejo de Transparencia. Se le negó el acceso al código fuente del algoritmo, ya que se alegaron razones de protección intelectual. Esta opacidad se repite en otros algoritmos que operan en nuestra sociedad como Veripol, el algoritmo de la policía para identificar denuncias falsas o Viogén, que valora el riesgo de agresiones reincidentes a víctimas de violencia de género. Es muy relevante, para asegurar que no se vulneran derechos, que se analicen estos sistemas en auditorías y se publiquen los resultados en pro de la transparencia y la rendición de cuentas.

Explicáis en vuestra web que trabajáis para aplicar el enfoque basado en los derechos humanos en las tecnologías de IA. ¿Eso, en la práctica, qué quiere decir?

Ponemos el foco en 4 aspectos: transparencia, rendición de cuentas, justicia social y participación ciudadana. Por ejemplo, vemos que actualmente la mayoría de opciones para hacer la IA más justa se plantean desde perspectivas tecno-solucionistas. Es decir, intentan solucionar problemas sociales mediante la técnica, dejando de lado los problemas estructurales de la sociedad que los causan. Abogamos para ampliar y mejorar la participación ciudadana en el diseño, conceptualización, desarrollo y evaluación de procesos automatizados y/o basados en IA. Queremos una IA más democrática.

¿Cuál es el principal reto que tenéis ahora mismo?

En una sociedad marcada por las agujas del reloj, empezar y consolidar una comunidad de personas que dedican una parte de su tiempo a construir un espacio colectivo es ya una victoria en sí misma. Reivindicamos la necesidad de no correr, de poder ser inclusivas, de buscar la diversidad y las diferencias desde el respeto. Queremos construir propuestas para mejorar a nuestra sociedad desde una perspectiva donde los cuidados estén en el centro de la comunidad. Todas las personas, con mucho o poco, contribuyen a hacer realidad este espacio donde tenemos saberes diferentes y desde donde construir conocimiento de manera colaborativa.

Más información