A partir del documental ‘Coded Bias’, los autores revisan cómo la subjetividad de quienes detentan posiciones de poder modela las posibilidades y usos de la inteligencia artificial.
Joy Buolamwini, una científica informática, descubrió que su cara no era reconocida por un sistema de reconocimiento facial mientras desarrollaba aplicaciones en un laboratorio del departamento de ciencia de la computación de su universidad. Este es el punto de partida del recientemente estrenado documental Coded Bias (Sesgo codificado). Buolamwini descubrió que los datos (caras) con los que entrenaron aquel tipo de sistemas eran principalmente de hombres blancos. Esto explicaba por qué el sistema no reconocía su cara afroamericana.
Nos gustaría poder reducir esta columna a este párrafo. Podríamos concluir que, como la inteligencia artificial (IA) la desarrollan principalmente hombres blancos, nadie se preocupó de que los datos fuesen representativos y que, para solucionar esos sesgos, debemos usar datos que incluyan a toda la población.
Lamentablemente, esta no es la conclusión correcta. Y, paradójicamente, para comprender el problema de esta tecnología puntera, debemos retroceder a un oscuro pasado. Lo que a Joy Buolamwini le pareció inicialmente una curiosidad y un error técnico, se convirtió en el descubrimiento de una dolorosa forma de dominación y opresión, traducida en nuevas formas de discriminación y racismo, que el documental desarrolla en su parte central.