Necesitamos protecciones concretas contra la inteligencia artificial que amenaza los derechos humanos



Un enfoque basado en los derechos humanos es esencial para regular las tecnologías de inteligencia artificial. Crédito: Shutterstock

Los acontecimientos de los últimos años han revelado varias violaciones de derechos humanos asociadas con el aumento de los avances en inteligencia artificial (IA).

Los algoritmos creados para regular el habla en línea han censurado el discurso que va desde el contenido religioso hasta la diversidad sexual. Los sistemas de IA creados para monitorear actividades ilegales se han utilizado para rastrear y atacar a los defensores de los derechos humanos. Y los algoritmos han discriminado a las personas negras cuando se han utilizado para detectar cánceres o evaluar el riesgo de fuga de las personas acusadas de delitos. La lista continúa.

Como investigadores que estudian la intersección entre la IA y la justicia social,hemos estado examinando soluciones desarrolladas para abordar las desigualdades de la IA. Nuestra conclusión es que dejan mucho que desear.

Ética y valores

Algunas empresas adoptan voluntariamente marcos éticos que son difíciles de implementar y tienen poco efecto concreto. La razón es doble. En primer lugar, la ética se basa en valores, no en derechos, y los valores éticos tienden a diferir en todo el espectro. En segundo lugar, estos marcos no se pueden hacer cumplir, lo que dificulta que las personas responsabilicen a las corporaciones por cualquier violación.

Incluso los marcos que son obligatorios, como la Herramienta de Evaluación de Impacto Algorítmicode Canadá, actúan simplemente como pautas que respaldan las mejores prácticas. En última instancia, los enfoques de autorregulación hacen poco más que retrasar el desarrollo y la implementación de leyes para regular los usos de la IA.

Y como se ilustra con la regulaciónde IA recientemente propuesta por la Unión Europea, incluso los intentos de desarrollar tales leyes tienen inconvenientes. Este proyecto de ley evalúa el alcance del riesgo asociado con diversos usos de la IA y luego somete a estas tecnologías a obligaciones proporcionales a sus amenazas propuestas.

Sin embargo, como ha señalado la organización de derechos digitales sin fines de lucro Access Now, este enfoque no va lo suficientemente lejos en la protección de los derechos humanos. Permite a las empresas adoptar tecnologías de IA siempre que sus riesgos operativos sean bajos.

El hecho de que los riesgos operacionales sean mínimos no significa que los riesgos para los derechos humanos sean inexistentes. En esencia, este enfoque está anclado en la desigualdad. Se deriva de una actitud que concibe las libertades fundamentales como negociables.

Así que la pregunta sigue siendo: ¿por qué es que tales violaciones de derechos humanos están permitidas por la ley? Aunque muchos países poseen cartas que protegen las libertades individuales de los ciudadanos, esos derechos están protegidos solo contra las intrusiones gubernamentales. Las empresas que desarrollan sistemas de IA no están obligadas a respetar nuestras libertades fundamentales. Este hecho se mantiene a pesar de la creciente presencia de la tecnología en formas que han cambiado fundamentalmente la naturaleza y la calidad de nuestros derechos.
Un evento paralelo en la 76ª Sesión de la Asamblea General de las Naciones Unidas sobre Nuevas Tecnologías y Derechos Humanos.

Violaciones de IA

Nuestra realidad actual nos priva de ejercer nuestra agencia para reivindicar los derechos infringidos a través de nuestro uso de sistemas de IA. Como tal,"la dimensión de acceso a la justicia a la que sirve el derecho de los derechos humanos se neutraliza":una violación no necesariamente conduce a reparaciones para las víctimas ni a una garantía contra futuras violaciones, a menos que lo exija la ley.

Pero incluso las leyes que están ancladas en los derechos humanos a menudo conducen a resultados similares. Considere el Reglamento General de Protección de Datos de la Unión Europea,que permite a los usuarios controlar sus datos personales y obliga a las empresas a respetar esos derechos. Aunque es un paso importante hacia una protección de datos más aguda en el ciberespacio, esta ley no ha tenido el efecto deseado. La razón es doble.

En primer lugar, las soluciones favorecidas no siempre permiten a los usuarios movilizar concretamente sus derechos humanos. En segundo lugar, no empoderan a los usuarios con una comprensión del valor de salvaguardar su información personal. Los derechos de privacidad son mucho más que simplemente tener algo que ocultar.

Abordar los sesgos

Todos estos enfoques intentan mediar entre los intereses subjetivos de los ciudadanos y los de la industria. Tratan de proteger los derechos humanos al tiempo que se asegura de que las leyes adoptadas no impidan el progreso tecnológico. Pero este acto de equilibrio a menudo resulta en una protección meramente ilusoria, sin ofrecer salvaguardas concretas a las libertades fundamentales de los ciudadanos.

Para lograr esto, las soluciones adoptadas deben adaptarse a las necesidades e intereses de los individuos, en lugar de asumir cuáles podrían ser esos parámetros. Cualquier solución debe incluir también la participación ciudadana.

Los enfoques legislativos solo buscan regular los efectos secundarios negativos de la tecnología en lugar de abordar sus sesgos ideológicos y sociales. Pero abordar las violaciones de derechos humanos provocadas por la tecnología después del hecho no es suficiente. Las soluciones tecnológicas deben basarse principalmente en principios de justicia social y dignidad humana y no en riesgos tecnológicos. Deben desarrollarse tenndo en cuenta los derechos humanos a fin de garantizar una protección adecuada.

Un enfoque que está ganando terreno se conoce como "Derechos Humanos por Diseño". Aquí, "las empresas no permiten el abuso o la explotación como parte de su modelo de negocio". Más bien,"se comprometen a diseñar herramientas, tecnologías y servicios para respetar los derechos humanos por defecto".

Este enfoque tiene como objetivo alentar a los desarrolladores de IA a considerar categóricamente los derechos humanos en cada etapa del desarrollo. Asegura que los algoritmos desplegados en la sociedad remediarán en lugar de exacerbar las desigualdades sociales. Toma las medidas necesarias para permitirnos dar forma a la IA, y no al revés.

Comentarios

Entradas populares