En la industria de las TIC es sabido que no hay mucha diversidad entre quienes construyen la internet. ¿Por qué es un problema y cómo debemos afrontarlo?
La tecnología está en todos lados. La usamos para comunicarnos con nuestros compañeros de trabajo, con nuestra familia, con nuestros amigos. Usamos la tecnología para buscar información, para obtener nuestras noticias, para aprender y para crecer. Siendo un factor tan omnipresente en nuestra vida, en la vida de todos, es imperativo que la tecnología esté hecha para todos. Es aún más importante que la tecnología esté hecha por todos.
Mientras es cierto que la mayoría de la gente nace siendo naturalmente empática, nuestra empatía tiene un límite. Por dar un ejemplo sencillo, el fin de semana anterior nos olvidamos de comprar postres veganos para un evento. La razón: quien siempre piensa en ese tipo de cosas es nuestra amiga vegana, quien estaba ausente en ese momento. Uno puede esforzarse en ser empático y ponerse en el lugar de otros, pero el no compartir su realidad hace que sea insuficiente.
Por supuesto, la falta de empatía al construir un producto puede ir más allá de las sensibilidades y afectar también a la funcionalidad. Un gran ejemplo de ello son los algoritmos de reconocimiento facial. En el caso de Joy Buolamwini, una estudiante afroamericana del MIT, su cara no estaba siendo reconocida consistentemente por el algoritmo de detección facial que estaba usando para completar sus estudios. Para poder testear sus trabajos tuvo que recurrir incluso al uso de una máscara blanca, a fin de incrementar el contraste en ambientes de baja luminosidad y que su cara fuese detectada.
¿Significa esto que quien sea que haya creado los algoritmos de detección facial es racista, o que el algoritmo en sí tiene sesgos de raza? En lo absoluto. La mayoría de los programas de detección facial usan inteligencia artificial, donde una red neuronal debe ser entrenada con un conjunto de muestras (en este caso caras) que le permita determinar patrones para usar de parámetros de comparación. La mayor causa de que rostros negros no sean reconocidos, o que a los ojos rasgados se los califique como cerrados, es que el conjunto de muestras usado para entrenar la red neuronal no fue lo suficientemente diverso.
Si bien puede parecer difícil que un individuo influencie cómo el bloqueador de pantalla de un teléfono detecta ojos rasgados o cómo es que los algoritmos de prevención de crímenes identifican sospechosos, la verdad es que todos tenemos una función. La clave es la diversidad, y todos podemos empezar por alentar a otros a que se involucren. Algunos ejemplos de esto son Rails Girls y Django Girls, organizaciones cuyo fin es incrementar la proporción de mujeres en la tecnología, y Black Girls Code, organización cuyo fin es incrementar el número de mujeres de color en los espacios virtuales. Otro gran ejemplo es la Liga de Justicia Algorítmica, creada por Joy para destacar el sesgo algorítmico.
Si alguna de estas historias te hace sentir identificado, involucrate. Si alguna vez te pareció difícil usar una aplicación o página web debido a tu etnia, edad o discapacidad, hacé que tu comunidad se involucre. Educalos, atraelos a la industria. Incrementá la diversidad en los equipos de desarrollo y en los grupos de prueba. Si por el contrario nunca tuviste problema alguno, hacé un esfuerzo especial por notar la disparidad social. Empezá por mirar a tu alrededor. Inspeccioná la empresa donde trabajás y analizá si es lo suficientemente diversa. Alentá la diversidad. Mejorá la tecnología.