Definir lo que es ético en la inteligencia artificial necesita el aporte de los africanos


Crédito: CC0 Dominio Público

La inteligencia artificial (IA) fue una vez materia de ciencia ficción. Pero se está generalizando. Se utiliza en la tecnología de telefonía móvil y vehículos de motor. Impulsa herramientas para la agricultura y la atención médica.

Pero han surgido preocupaciones sobre la responsabilidad de la IA y las tecnologías relacionadas, como el aprendizaje automático. En diciembre de 2020, un científico informático, Timnit Gebru, fue despedido del equipo de IA ética de Google. Anteriormente había hecho saltar la alarma sobre los efectos sociales del sesgo en las tecnologías de IA. Por ejemplo, en un artículo de 2018, Gebru y otra investigadora, Joy Buolamwini, habían demostrado cómo el software de reconocimiento facial era menos preciso para identificar a las mujeres y las personas de color que los hombres blancos. Los sesgos en los datos de entrenamiento pueden tener efectos de largo alcance y no deseados.

Ya existe un cuerpo sustancial de investigación sobre la ética en la IA. Esto resalta la importancia de los principios para garantizar que las tecnologías no simplemente empeoren los sesgos o incluso introduzcan nuevos daños sociales. Como dice el borrador de la recomendación de la UNESCO sobre la ética de la IA: "Necesitamos políticas y marcos regulatorios internacionales y nacionales para garantizar que estas tecnologías emergentes beneficien a la humanidad en su conjunto".

En los últimos años, se han creado muchos marcos y directrices que identifican objetivos y prioridades para la IA ética.

Este es sin duda un paso en la dirección correcta. Pero también es fundamental mirar más allá de las soluciones técnicas al abordar problemas de sesgo o inclusión. Los sesgos pueden entrar a nivel de quién enmarca los objetivos y equilibra las prioridades.

En un artículo reciente,argumentamos que la inclusión y la diversidad también deben estar a nivel de identificar valores y definir marcos de lo que cuenta como IA ética en primer lugar. Esto es especialmente pertinente cuando se considera el crecimiento de la investigación de IA y el aprendizaje automático en todo el continente africano.

Contexto

La investigación y el desarrollo de tecnologías de IA y aprendizaje automático están creciendo en los países africanos. Programas como Data Science Africa, Data Science Nigeriay Deep Learning Indaba con sus eventos satelitales IndabaX,que hasta ahora se han celebrado en 27 países africanos diferentes, ilustran el interés y la inversión humana en los campos.

El potencial de la IA y las tecnologías relacionadas para promover oportunidades de crecimiento, desarrollo y democratización en África es un impulsor clave de esta investigación.

Sin embargo, muy pocas voces africanas han estado involucradas hasta ahora en los marcos éticos internacionales que tienen como objetivo guiar la investigación. Esto podría no ser un problema si los principios y valores de esos marcos tienen una aplicación universal. Pero no está claro que lo hagan.

Por ejemplo, el marco europeo AI4People ofrece una síntesis de otros seis marcos éticos. Identifica el respeto a la autonomía como uno de sus principios clave. Este principio ha sido criticado dentro del campo ético aplicado de la bioética. Se considera que no hace justicia a los valores comunitarios comunes en toda África. Estos se centran menos en el individuo y más en la comunidad, incluso requieren que se hagan excepciones a la defensa de dicho principio para permitir intervenciones efectivas.

Desafíos como estos, o incluso el reconocimiento de que podría haber tales desafíos, están en gran medida ausentes de las discusiones y marcos para la IA ética.

Al igual que los datos de capacitación pueden afianzar las desigualdades e injusticias existentes, también lo puede hacer no reconocer la posibilidad de diversos conjuntos de valores que pueden variar en los contextos sociales, culturales y políticos.

Resultados inutilizables

Además, no tener en cuenta los contextos sociales, culturales y políticos puede significar que incluso una solución técnica ética aparentemente perfecta puede ser ineficaz o equivocada una vez implementada.

Para que el aprendizaje automático sea efectivo para hacer predicciones útiles, cualquier sistema de aprendizaje necesita acceso a los datos de entrenamiento. Esto implica muestras de los datos de interés: entradas en forma de múltiples características o mediciones, y salidas que son las etiquetas que los científicos quieren predecir. En la mayoría de los casos, tanto estas características como las etiquetas requieren un conocimiento humano del problema. Pero si no se tiene en cuenta correctamente el contexto local, se podrían establecer sistemas de bajo rendimiento.

Por ejemplo, los registros de llamadas de teléfono móvil se han utilizado para estimar el tamaño de la población antes y después de los desastres. Sin embargo, las poblaciones vulnerables tienen menos probabilidades de tener acceso a dispositivos móviles. Por lo tanto, este tipo de enfoque podría producir resultados que no son útiles.

Del mismo modo, las tecnologías de visión por computadora para identificar diferentes tipos de estructuras en un área probablemente tendrán un rendimiento inferior donde se utilizan diferentes materiales de construcción. En ambos casos, como nosotros y otros colegas discutimos en otro documento reciente,no tener en cuenta las diferencias regionales puede tener efectos profundos en cualquier cosa, desde la entrega de ayuda en casos de desastre hasta el rendimiento de los sistemas autónomos.

En el futuro

Las tecnologías de IA no deben simplemente empeorar o incorporar los aspectos problemáticos de las sociedades humanas actuales.

Ser sensible e inclusivo de diferentes contextos es vital para diseñar soluciones técnicas efectivas. Es igualmente importante no asumir que los valores son universales. Aquellos que desarrollan IA deben comenzar a incluir a personas de diferentes orígenes: no solo en los aspectos técnicos del diseño de conjuntos de datos y similares, sino también en la definición de los valores a los que se puede recurrir para enmarcar y establecer objetivos y prioridades.

Comentarios

Entradas populares