¿Son capaces los gobiernos del mundo de poner la tecnología digital al servicio de la equidad, la no-discriminación, y los derechos sociales y económicos?

by Marc Limon, Executive Director of the Universal Rights Group Digital technologies BORRAR, Misinformation, fake news, and hate speech, Thematic human rights issues

El Consejo de Derechos Humanos y el amplio sistema de derechos humanos de la ONU han considerado regularmente las implicaciones en derechos humanos de las nuevas tecnologías (e.g. resolución 20/08 sobre la ‘Promoción, protección, y disfrute de los derechos humanos en Internet’). En los años recientes, este interés se ha intensificado.[1]

 

El texto más reciente del Consejo en el tema – resolución 41/11 sobre ‘Tecnologías digitales nuevas y emergentes y derechos humanos’, adoptada en junio de 2019, seguía tres objetivos: (1) revisar las implicaciones tanto positivas como negativas de las tecnologías para los derechos humanos – i.e. cómo estas tecnologías pueden ser usadas para promover y proteger los derechos humanos, así como perjudicarlos potencialmente; (2) adoptar un enfoque holístico al revisar un amplio rango de nuevas tecnologías: y (3) promover un enfoque de múltiples actores de interés involucrando a ‘gobiernos, el sector privado, organizaciones internacionales, sociedad civil, comunidades técnicas y académicas.’[2]

 

La búsqueda por alcanzar estos tres grandes objetivos significó que la resolución abarcó un amplio campo – incluyendo las implicaciones positivas y negativas de la tecnología digital para la equidad, la no-discriminación, y la importancia de poner esta tecnología ‘al servicio’ de los derechos económicos, sociales, y culturales. Por ejemplo, en la resolución 41/11 el Consejo reconoce: ‘ que las tecnologías digitales tienen el potencial de facilitar los esfuerzos por acelerar el progreso humano, promover y proteger los derechos humanos y las libertades fundamentales,  para salvar las brechas digitales, apoyar, inter alia, el gozo de los derechos de las personas con discapacidades, el adelanto en la equidad de género, y el empoderamiento de todas las mujeres y niñas, y para que nadie sea dejado atrás en el cumplimiento de los Objetivos de Desarrollo Sostenible.’

 

La Alta Comisionada para los Derechos Humanos, Michelle Bachelet, ha hablado también sobre los ‘enormes’ beneficios de la tecnología digital ‘para los derechos humanos y el desarrollo’. En un discurso para la ‘Asian Society’ en Nueva York a finales de 2019,[3] presentó algunos de esos beneficios: ‘podemos conectarnos y comunicarnos alrededor del mundo como nunca antes; podemos empoderarnos, informarnos e investigar; podemos usar comunicaciones encriptadas, imagen satelital y flujos de datos para defender y promover directamente los derechos humanos; y hasta podemos usar la inteligencia artificial para predecir y prevenir violaciones de derechos humanos.’ Sin embargo, también – en línea con 41/11 y las muchas intervenciones del Secretario General sobre el tema – advirtió que la tecnología digital puede, ya sea accidentalmente o deliberadamente, ser usada para quebrantar o violar los derechos humanos: ‘La revolución digital es un problema global mayor de derechos humanos,’ dijo, ‘sus beneficios incuestionables no eliminan sus riesgos inconfundibles.’

 

Este último punto – que los impactos negativos de la tecnología digital en los derechos humanos pueden ocurrir sin intención – es uno importante. En efecto, la mayoría de abusos de derechos humanos relacionados a la tecnología probablemente estén en esta categoría. Como lo menciona Bachelet en su discurso, estos abusos ‘no son el resultado de un deseo de control o manipulación, sino [en realidad son] sub-productos  de un impulso legítimo por la eficiencia y el progreso’. Por ejemplo, algoritmos diseñados para hacer los sistemas de seguridad social más eficientes (y por lo tanto apoyar los derechos económicos y sociales) pueden terminar exacerbando las inequidades. O, ‘los sistemas digitales y la inteligencia artificial crean centros de poder, y los centros de poder sin regular siempre suponen riesgos – incluyendo para los derechos humanos’.

 

Ya sabemos como lucen algunos de estos riesgos en la práctica: programas de reclutamiento que degradan sistemáticamente a las mujeres; sistemas que clasifican a los sospechosos de piel negra como más propensos a reincidir; o programas de predicción policial que llevan a una vigilancia excesiva en áreas de pobreza o habitadas por minorías. Las personas más afectadas, generalmente están en los márgenes de la sociedad. Solo un enfoque de derechos humanos que ve a las personas como individuos poseedores de derechos, los empodera y crea un ambiente legal e institucional para hacer cumplir sus derechos y busca compensación para cualquier violación o abuso de derechos, puede evaluar adecuadamente estos retos.

 

‘Para respetar estos derechos en nuestro mundo en rápida evolución,’ concluyó la Alta Comisionada, ‘debemos asegurar que la revolución digital este sirviendo a las personas, y no de la manera contraria. Debemos asegurar que todos los procesos ejecutados por máquinas o sistemas de inteligencia artificial cumplen con los principios fundamentales como transparencia, justicia, rendición de cuentas, supervisión y compensación.’

 

Poniendo la tecnología al servicio de los derechos económicos y sociales, y los ODS

 

Una de las maneras en la que la tecnología digital está supuestamente siendo movilizada para apoyar los derechos humanos es a través de la ‘digitalización’ de los sistemas de seguridad social. Este ejemplo también proporciona un caso de estudio instructivo sobre cómo esquemas como estos, a pesar de ser concebidos para mejorar la eficiencia y la rentabilidad, pueden resultar en la violación de derechos y la desvalorización de la dignidad humana.

 

En el centro de este estudio de caso yace un simple conjunto de preguntas. ¿Puede el aprendizaje automático reemplazar la experiencia, intuición, y juicio de los seres humanos al momento de la entrega? ¿Puede la inteligencia artificial juzgar efectivamente y compasivamente cuáles familias necesitan qué tipo de ayuda de manera más urgente? ¿Pueden, en breve, ser los algoritmos confiables para respetar, promover, y proteger los derechos humanos sin discriminación?

 

Para ayudar a responder estas preguntas, en Septiembre de 2018 el periódico ‘The Guardian’ encuestó a una variedad de consejeros locales (como proveedores de servicios sociales) en UK[4] quienes estaban siendo pioneros en nuevos sistemas de ‘análisis predictivo’ para identificar familias y niños y niñas en necesidad de intervención para prevenir el abuso de menores. Así como plantea preocupaciones de privacidad de datos, la investigación detectó que el nuevo sistema ‘inevitablemente incorpora los sesgos de sus diseñadores, y se arriesga a perpetuar el estereotipo y la discriminación mientras opera efectivamente sin ningún escrutinio público.’

 

Estas preocupaciones tuvieron eco un año después,[5] en un articulo de Ed Pilkington titulado ‘Distopía digital: cómo los algoritmos castigan a los pobres’. El articulo hacía énfasis en una ‘revolución’ silenciosa alrededor del mundo en ‘cómo los gobiernos tratan a los pobres’. ‘Solo los matemáticos y los científicos de computadores comprenden completamente este cambio radical,’ dijo, ‘alimentada como es por la inteligencia artificial, algoritmos de predicción, modelamiento de riesgos y biometría.’ Y aún así, ‘si tu eres uno de los millones de personas vulnerables en el extremo receptor de esta remodelación radical’ de la manera en la que los Estados promueven y protegen los derechos  económicos y sociales, ‘sabes que es real y que sus consecuencias pueden ser serias – incluso fatales.’

 

El articulo explicaba como acceder a beneficios de desempleo, manutención de menores, subsidios de vivienda y alimentación, y mucho más, está siendo digitalizado y automatizado. ‘Grandes sumas están siendo invertidas por gobiernos a través del mundo industrializado y desarrollado en automatizar la pobreza y, en el proceso, convirtiendo las necesidades de ciudadanos vulnerables en números, reemplazando el juicio de trabajadores y trabajadoras sociales humanos con la toma de decisiones fría e insensible de máquinas.’ La científica política americana Virginia Eubanks ha llamado a esto la creación de un ‘hogar digital para pobres’.

En Illinois (US), por ejemplo, los algoritmos han sido usados para recalcular pagos de asistencia social. Aquellos que han recibido demasiado (en algunos casos, a lo largo de periodos de más de 30 años), han sido automáticamente instruidos para devolverlo. Casos similares han sido reportados en Australia, donde los individuos vulnerables y marginalizados han sido ordenados a pagar devuelta beneficios de seguridad social debido a un ‘algoritmo  defectuoso’. En Newcastle en UK, ‘donde millones de libras están siendo invertidas en el desarrollo de una nueva generación de robots de asistencia social para reemplazar a los humanos’,  los reclamantes han hablado de un clima de ‘temor’ y ‘pánico’ mientras que los beneficios de seguridad social son cambiados sin aviso, sin explicación, y sin remedio. Se dice que solo estos tres ejemplos han afectado a millones de personas – con los más pobres y vulnerables pagando el precio más alto. Similarmente, en India, problemas técnicos (e.g. fallas al reconocer la huella dactilar de las personas) con el sistema ‘Aadhaar’ del país, un número de identificación único de 12 dígitos relacionado a los datos biométricos de las personas, ha resultado, en algunos casos,  en destitución, hambruna, y suicidio.

 

En cada uno de estos casos, las soluciones de tecnología digital (afectando los servicios sociales, beneficios de desempleo, subsidios de discapacidad y cubertura de salud) a menudo se están implementando con una consulta publica mínima y un debate parlamentario mínimo.

 

Abriendo los ojos de los gobiernos del mundo

 

Estas serias amenazas y retos a los derechos económicos y sociales, y a los principios de equidad y no-discriminación que subyacen al derecho internacional de derechos humanos, están siendo considerados tardíamente en la ONU. A finales de 2019, Philip Alston, el entonces Relator Especial de la ONU para la pobreza extrema, presentó su reporte final a la Asamblea General de la ONU. En este, advirtió que el mundo está ‘tropezando como un zombie en una distopía de bienestar digital.’ ‘Demasiado a menudo’ dijo, ‘los motivos reales’ detrás de la digitalización del estado de bienestar, ‘son recortar el gasto, establecer sistemas de vigilancia gubernamentales intrusivos, y generar ganancias para los intereses corporativos privados.’

 

‘El proceso es referido comúnmente como una ‘transformación digital’ por gobiernos y consultoras tecnológicas que los asesoran’, dijo, ‘pero este termino algo neutral, no debe permitirse ocultar el carácter revolucionario y político de muchas de estas innovaciones.’ ‘Los sistemas de protección social y asistencia están cada vez más impulsados por datos digitales y tecnologías que son utilizadas para diversos propósitos, incluyendo para automatizar, predecir, identificar, vigilar, detectar, apuntar, y castigar.’

 

La comunidad internacional ‘hasta ahora ha hecho un muy mal trabajo persuadiendo la industria, el gobierno, o aparentemente la sociedad en general, del hecho que un futuro impulsado por la tecnología será desastroso si no es guiado por el respeto de los derechos humanos y fundado en ley dura.’

 

Mientras el mundo enfrenta severas retracciones económicas, aumento del desempleo, y el crecimiento de la pobreza como resultado de la pandemia del COVID-19, la pregunta sobre si la comunidad internacional, y aun más importante los gobiernos nacionales, son capaces de hacer un mejor trabajo en el futuro es una pregunta – bastante literal – de vida o muerte.

[1] https://www.universal-rights.org/blog/do-digital-technologies-hurt-or-support-human-rights/

[2] PP10, Council resolution 41/11

[3] Keynote speech by Michelle Bachelet, UN High Commissioner for Human Rights, Japan Society, New York, 17 October 2019

[4] https://www.theguardian.com/society/2018/sep/16/councils-use-377000-peoples-data-in-efforts-to-predict-child-abuse

[5] https://www.theguardian.com/technology/2019/oct/14/automating-poverty-algorithms-punish-poor

Share this Post