Loading...

Inteligencia artificial, el aliado inesperado de la DEI

“¿Qué gano si promuevo la diversidad y la inclusión en mi equipo?”, fue la primera pregunta que le hice al Chat GPT.

  • “Estos son los beneficios comprobados que pueden obtener…”, para luego listarme informes extensos de datos comprobados por investigaciones.

Luego hice una apuesta más alta con otra pregunta: “¿Tengo sesgos inconscientes?

  • “¡Por supuesto!”, respondió, seguido de una larga explicación muy similar a la que suelo dar en mis talleres.

Muy bien, ahora sé a dónde dirigir a todos/as aquellos/as líderes que aman la tecnología pero que a veces dudan en aceptar mis explicaciones sobre los desafíos y beneficios de convertirse en un/a líder inclusivo/a. “No me creas, solo pregúntale a la Inteligencia Artificial (IA)”. Por favor, no me malinterpreten, no tengo miedo de perder mi trabajo por una máquina. Tengo algo que la IA nunca replicará: humanidad. Sin embargo, la IA aún puede ser una herramienta extraordinaria para los y las consultoras, profesionales y practicantes de DEI. ¿Hemos encontrado finalmente el verdadero aliado 100% de diversidad? Tal vez, pero primero, tenemos que “poner los pies en la tierra” respecto a la idealización poco realista que estamos haciendo de la IA.

No estamos planeando convertirnos en el nuevo “Anciano le grita a la nube” de la IA. La IA es un hecho, algo que no se puede evitar, algo que hay que entender y, sobre todo, aprovechar. Honestamente, no estoy muy interesado en la implicación moral de una IA que realmente pueda “pensar y sentir” como un ser humano. Pero ciertamente estoy preocupado por su aplicación, especialmente cuando se la considera como el último superhéroe que finalmente traerá algo de paz, justicia e igualdad a este apesadumbrado mundo. Es por esto que considero fundamental resaltar 5 “red flags” (señales de alerta, literalmente “bandera roja”) que descubrí sobre la IA, no para impedir su uso, como si fuera algo posible, sino para usarla conscientemente, entendiendo sus limitaciones. Cuando conoces a una persona nueva en un contexto romántico, no usas las “red flags” como una señal para huir de ellas. Las utilizas para poner límites y establecer una relación honesta y fructífera. ¡Hagamos lo mismo con la IA!

Red flag #1: La IA tiene un/a dueño/a

No es que haya nada malo en eso. Sin embargo, los dueños son personas; por lo tanto, tienen sus propios intereses, agendas, preocupaciones y deseos. Otro detalle importante es que, muy probablemente, estas personas tienen una identidad. Hasta donde pude averiguar, eran principalmente hombres, blancos y multimillonarios. Eso, por sí solo, debería decirte algo.

Red flag #2:  Fueron seres humanos quienes le enseñaron a la IA a responder

Parte de la “inteligencia” de la IA proviene del aprendizaje por refuerzo. Básicamente, esto significa que los/as entrenadores/as humanos/as le hacen una pregunta al modelo y le brindan retroalimentación sobre qué respuesta es más apropiada para cada pregunta. El modelo utiliza la retroalimentación para mejorar su capacidad de responder preguntas de manera más precisa y parecida a cómo respondería un ser humano. La preocupación es obvia: ¿hay sólo una respuesta adecuada? ¿Todos los humanos responderían igual? ¿Qué pasa con los prejuicios y los sesgos humanos?

Red flag #3: La IA predice en base a los datos disponibles en Internet

¿Quién pone esa información en Internet? Exacto, los seres humanos. La información que existe en internet no fue creada de manera equitativa. No incluye ni representa por igual a todas las perspectivas humanas. La posibilidad de que la IA ofrezca respuestas de una fuente de información desbalanceada que está disponible en Internet, facilita el contar solo con una parte de lo que se considera correcto.

Red flag #4: La IA está programada para alinearse con los valores humanos

Seamos honestos/as, incluso cuando definir un valor humano suena altruista, hay muchas posibilidades de que ese valor se acerque más a los “valores estadounidenses”. Yo mismo tuve la oportunidad de vivir, estudiar y, de vez en cuando, trabajar en los Estados Unidos. He aprendido muchas cosas de la cultura y los valores estadounidenses. Sin embargo, no es lo que considero correcto o incluso necesario en el resto del mundo.

Red flag #5: La IA llega a conclusiones sin información importante (y clasificada)

Aunque me gustaría creer que toda la información disponible sobre la historia está en Internet a un clic de cualquier persona, la verdad es que nosotros/as, la gente común, simplemente no tenemos acceso a algunos datos clave. Todos/as lo sabemos, pero se ha demostrado con filtraciones de Wikileaks, por ejemplo. ¿Cuánta “información clasificada” no forma parte de los insumos de la IA para realizar sus análisis y conclusiones? Nosotros/as, tal como la IA, tenemos acceso a solo una parte de la información real.

Por supuesto que puedes apoyarte en la IA para hacer preguntas complejas y analíticas que te ayuden a desarrollar un lugar de trabajo y una sociedad más inclusiva. Sin embargo, aún deberás hacer tu parte del trabajo, identificando patrones sesgados e incorporando un punto de vista más empático, considerando que puedes tener una agenda diferente. Y eso también está bien. La IA no está aquí para eliminar la necesidad de conectarse y escuchar a los grupos menos privilegiados. Una vez que comprendamos estas 5 red flags, la IA puede convertirse en el aliado que necesitamos para establecer una base sólida, y así consolidar nuestros esfuerzos en DEI.

¿Cómo están utilizando a la IA en tu organización para promover un espacio laboral más inclusivo?

 

Por Marcelo Baudino
Experto en Diversidad, Equidad e Inclusión
Linkedin: https://ar.linkedin.com/in/marcelobaudino

Share

Deja un comentario

Su dirección de email no será publicada

You may use these <abbr title="HyperText Markup Language">html</abbr> tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Skip to content