Algoritmos, controversias y leyes de la naturaleza – parte II

 

Por Adela P. Depetris

Del debate (1) alrededor del algoritmo predictivo COMPAS, surge que: la sociedad es quien debería estar en condiciones de decidir sobre qué deben priorizar los algoritmos en cada caso.

“Cortes, bancos y otras instituciones estan usando sistemas de análisis de datos automatizado para tomar decisiones sobre tu vida. No dejemos a los productores de algoritmos decidir si lo están haciendo bien o no.” dice Matthias Spielkamp en su artículo “Inspecting algorithmos for bias” (2) que se usó como referencia para esta nota.

Y agrega: “Todo algoritmo tendrá sesgos, ya que después de todo está realizando una predicción basada en estadísticas generales, no en situaciones individuales. Pero así y todo podríamos usar tales sistemas para guiar decisiones que sean más sabias y justas que aquellas que los humanos tendemos a realizar por nosotros mismos”. Los sistemas de Toma de Decisiones Automatizada, (ADM por su sigla en inglés,  Automated Decision-Making)  grupo al que pertenece el software COMPAS, pueden ayudar en casos en que la toma de decisiones ¨humana” pudiera ser incoherente y necesitara ser supervisada. Como ejemplo, un estudio de la Academia de ciencias de EEUU que demuestra que los jueces eran más proclives a otorgar libertad bajo palabra a convictos que eran presentado a la mesa examinadora luego de una pausa para refrigerio: (3).

“El hecho que la mayoria de los ADM sean cajas negras para las personas afectadas por ellos no es una ley de la naturaleza” dice en su manifesto(4). Algorithm Watch. Es una ONG co-fundada por Matthias Spielkamp, con sede en Berlín, que estudia los riesgos y las oportunidades del uso de algoritmos. Propone preguntarse y responder, qué deberiamos hacer para tener un mejor manejo de los ADMs:

Si aceptáramos que los algoritmos podrían hacer la vida más justa si están bien diseñados, ¿cómo podríamos saber y discernir si están bien diseñados o no?

    • Las sociedades que se dicen democráticas deberían estar ya trabajando para determinar qué grado de transparencia se espera de los ADMs.
      (Necesitamos nuevas regulaciones para el software para asegurar que pueda ser adecuadamente inspeccionado).
    • Abogados, jueces y un público informado en general deberían tener cabida en definir qué medidas de equidad y juego limpio son priorizadas en los algoritmos.
      (Y, si los algoritmos no reflejaran estos valores, definir quién debería rendir cuenta).
    • Lo que es importante es que las sociedades y no exclusivamente los constructores de algoritmos hagan los juicios de valor que se hallan en los ADMs.

 

Fuentes:
(1) Algoritmos, controversias y leyes de la naturaleza – Parte I
(2) https://www.technologyreview.com/s/607955/inspecting-algorithms-for-bias/ by Matthias Spielkamp, 2017 MIT Technology Review
(3) Factores externos en decisiones judiciales (Extraneous factors in judicial decisions) Autores: Shai Danziger, Jonathan Levav, Liora Avnaim-Pesso y otros – Academia Nacional de Ciencias de los Estados Unidos.
(4) https://algorithmwatch.org/en/what-we-do/