La ciencia o mejor dicho su aplicación, no es neutral. En tal sentido, la IA puede ser un gran instrumento para generar equidad e inclusión, pero también puede, por lo contrario, fortalecer la inequidad y exclusión, ya existentes.
Tener esto en cuenta, se vuelve fundamental para quienes crean y nutren esta tecnología, pero también para todos los satélites que desde el entorno podemos propiciar alguna reflexión crítica, ya que apostamos a que este tipo de herramientas puedan ayudar a construir un mundo más justo.
¿Quiénes estudian tecnología? ¿Cómo son los equipos que desarrollan tecnología? ¿Cómo piensan quienes desarrollan tecnología? ¿De dónde se nutre la tecnología que desarrollan? ¿Quiénes están en los puestos de más alto poder relacionados con la tecnología?
Aquí, comparto algunos puntos que creo necesarios tener en cuenta:
El error técnico por subrepresentación
Recuerdo que hace ya un buen tiempo, un colega que había desarrollado junto a un equipo una aplicación de salud, me contaba que ésta daba error cuando las usuarias eran personas con diabetes. Al preguntar por qué, me contó que había identificado que ese error tenía que ver con falta de datos de esa población, en otras palabras, su base de datos (con la que habían nutrido la app) no tenía representación suficiente de personas con diabetes y de ahí surgía el error técnico. ¿Qué otras poblaciones aún hoy podrán estar subrepresentadas?
Más exclusión para algunos, más privilegios para otros
Como consecuencia de lo anterior, si no contemplamos ciertas poblaciones para crear tecnología, éstas no serán tenidas en cuenta, reforzando la exclusión de esos grupos, por un lado, y por otro, provocando que el grupo privilegiado de perfil hegemónico (varones, blancos, jóvenes, sin discapacidad), continúe desarrollando habilidades, aumentando ventajas y privilegios perpetuando la exclusión del resto. Para ejemplificar esto podemos pensar en lo sucedido hace un tiempo en Amazon, donde su sistema de IA creado para seleccionar personal terminó reclutando solo varones, desestimando cualquier CV de mujer por más idónea que fuere. De igual modo, podemos preguntarnos: si no nutrimos bien a la tecnología que entrevista, o en otras palabras, si en nuestra base de datos figuran solo personas hegemónicas: ¿Qué oportunidades de ser elegidas tendrán las personas con discapacidad, por ejemplo? Ciertamente, ninguna. Y entonces ¿Quiénes ingresarán, se desarrollarán y continuarán liderando? Creo que la pregunta se responde sola.
Sesgos inconscientes por default
La IA, al ser un producto creado por personas educadas y socializadas en una sociedad que prejuzga y discrimina, probablemente exporte los vicios que las personas traemos por haber crecido en esta sociedad. La IA está repleta de sesgos inconscientes. Son inconscientes porque no nos damos cuenta de que los tenemos, y pese a nuestra intención, generan exclusión. Pensemos en que la IA de reconocimiento facial, en un momento no podía leer a las personas negras, lo cual es lógico si tenemos en cuenta que las personas que creaban la tecnología eran mayoritariamente blancas, y tenían una mirada autorreferencial.
Sin responsabilidad ética, la exclusión es activa
Quienes están en el poder probablemente quieran perpetuar su dominación, por ende, pueden reproducir sesgos de forma consciente, para ser ellos quienes continúen en esa posición, reproduciendo la exclusión y discriminación de todo el resto, conscientemente. ¿O acaso, después de años de investigación y estudios que permiten entender cómo operan los sesgos, podemos creer que todos ellos siguen siendo inconscientes? Yo, como mínimo me permito dudar…
Considerando lo dicho, se me ocurren 4 pautas clave para asegurarnos de que la tecnología, lejos de reproducir el status quo, contribuya a crear un mundo mejor, donde nadie se quede atrás:
1: Representación
Nutrir la base de datos, evitando la #subrepresentación de poblaciones vulneradas.
2: Diversidad
Conformar equipos de trabajo diversos para crear productos con IA, para mitigar los #sesgos inconscientes que puedan aparecer.
3: Accesibilidad
Que los equipos de trabajo tengan una perspectiva de #equidad e inclusión, para que sus creaciones sean accesibles y equitativas para todas las personas.
4: Responsabilidad
Tomar responsabilidad #ética por la creación de IA: La #ciencia y #tecnología no debería servir para oprimir, excluir, marginar; usémosla para crear un mundo más justo.
¿Y tú que crees: La IA debe estar al servicio de la diversidad, equidad e inclusión?
Por Daniela Mariana Chávez
Lic. en Sociología. Líder de proyectos DEI
LinkedIn: Daniela Mariana Chavez (ella)