¿Tu IA es un espejo de tus prejuicios o la ventana a un futuro mejor?

Por Richard Rodríguez:

Hace poco conversaba con un colega sobre por qué nos fascina tanto la Inteligencia Artificial. La respuesta es simple: porque parece mágica. Le das millones de datos y, en segundos, te dice a quién contratar, qué película ver o quién es propenso a cometer un delito. Pero aquí está el truco: la IA no es una bola de cristal, es un espejo. Y el problema de los espejos es que, si tienes una mancha en la cara, el espejo la va a mostrar con una fidelidad implacable.

Para entender esto, hay que quitarse la idea de que los algoritmos tienen “mente”. El aprendizaje automático es, en esencia, un niño muy rápido que aprende por imitación. Si tú le enseñas a un niño mil fotos de personas exitosas y en todas esas fotos aparecen solo hombres con traje, el niño aprenderá que el “traje y la barba” son los ingredientes del éxito. No es que el niño sea prejuicioso; es que tú le diste un álbum de fotos incompleto. Esto es lo que llamamos la “Trampa Histórica”. Si una empresa ha promocionado históricamente a hombres blancos, el algoritmo no verá injusticia, verá un patrón de éxito y lo automatizará, dejando fuera a mujeres o minorías con un talento increíble, simplemente porque “no se parecen” a los datos del pasado.

Pero el sesgo no siempre viene de nuestras malas decisiones pasadas; a veces viene de nuestra propia ignorancia al recolectar datos. Imagina los sistemas de reconocimiento facial. Los estudios han demostrado que son casi perfectos identificando a hombres de piel clara, pero fallan estrepitosamente con mujeres de piel oscura, con errores de hasta el 34%. ¿Por qué? No es que el algoritmo “odie” la diversidad, es que fue entrenado en laboratorios con bases de datos llenas de rostros de personas que se parecían a los programadores. Es el “Sesgo de Adecuación“: la IA simplemente no sabe qué hacer con aquello que no ha visto lo suficiente. Es como intentar aprender a distinguir razas de perros usando solo fotos de gatos.

Ahora, hay un tipo de sesgo que es el más peligroso porque se disfraza de “buen negocio”: el sesgo por optimización. Este ocurre cuando le pides a la IA que sea eficiente y ella, en su frialdad matemática, toma el camino más corto. Piensa en los anuncios de empleo para carreras de ciencia y tecnología (STEM). Un algoritmo de Facebook o Google nota que mostrarle anuncios a mujeres es más caro porque ellas son un público muy buscado por marcas de consumo masivo, moda y viajes. La IA, que tiene la orden de “hacer rendir tu dinero”, decide dejar de mostrarle el empleo de ingeniería a las mujeres y se lo muestra solo a los hombres porque su “clic” es más barato. Nadie le dijo a la IA que fuera machista, ella solo quería ahorrarte un dólar. Pero el resultado es una discriminación brutal y silenciosa: las mujeres ni siquiera se enteran de que el puesto existe.

Esto nos lleva a un dilema ético que parece sacado de una película. En Estados Unidos se usó un algoritmo llamado COMPAS para predecir si un preso volvería a delinquir. El sistema fue acusado de racismo porque marcaba a los acusados negros con “alto riesgo” mucho más seguido que a los blancos, incluso si tenían antecedentes similares. Sin embargo, la empresa creadora se defendió diciendo que, estadísticamente, el modelo era “preciso”. Aquí es donde chocamos con la pared: ¿Qué es la justicia? ¿Es que el modelo no se equivoque en el promedio general, o es evitar que una persona inocente vaya a la cárcel por un error de cálculo? La IA puede darte números, pero no puede resolver un debate filosófico que llevamos miles de años discutiendo.

Lo más difícil de aceptar para los líderes y dueños de negocio es que corregir esto tiene un costo. Existe un “trade-off” o intercambio: si quieres un modelo que sea 100% justo y equitativo con todos los grupos, lo más probable es que tu precisión general baje un poco. Es una decisión ejecutiva de peso. ¿Prefieres un sistema que sea 95% preciso pero que margine a un grupo, o uno que sea 90% preciso pero trate a todos por igual? No es una pregunta técnica, es una pregunta sobre los valores de tu empresa.

Entonces, ¿qué hacemos? No podemos apagar la IA, pero sí podemos ponerle “barandas”. Google ha propuesto algo genial llamado “Tarjetas de Nutrición”: igual que el cereal que comes tiene una etiqueta con grasas y azúcares, los modelos de IA deberían tener una etiqueta que diga con qué datos se entrenaron y dónde suelen fallar. También podemos usar la “Ponderación”, que es básicamente decirle a la máquina: “Sé que en el pasado no contratamos a muchas mujeres, así que ahora quiero que cada ejemplo de éxito femenino valga el doble en tu aprendizaje”. Estamos programando el futuro que queremos, no el pasado que sufrimos.

En última instancia, la gestión del sesgo no es un problema de ingeniería que se arregla con más código. Se arregla con más humanidad. Necesitamos consejos de ética donde participen psicólogos, sociólogos y expertos en el negocio, no solo programadores. La IA es una herramienta potente, pero sigue siendo eso: una herramienta. Si queremos que el mundo sea más justo, no podemos esperar que un algoritmo lo haga por nosotros mientras nosotros miramos hacia otro lado para ahorrar unos centavos.

La IA no es neutral: es un espejo de nuestras decisiones pasadas que debemos corregir para no automatizar la injusticia.


SUSCRÍBETE a Info Capital Humano y entérate las últimas novedades sobre el sector de Recursos Humanos. Conoce más, aquí.

Etiquetado:

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *