¡No se trata solo de privacidad! Cuestionamientos éticos y legales a la Inteligencia Artificial – Parte I

La inteligencia artificial (IA) puede definirse como “una variedad de técnicas de procesamiento y tecnologías usadas para realizar trabajos orientados a resultados y los medios para razonar en la persecución de esa tarea” (Defense Innovation Advisory Board, 2019, p.5)[1][2] y en la actualidad es una de las tecnologías cuyo desarrollo es considerado estratégico por países como China o Estados Unidos. Siendo una tecnología multifacética, puede aplicarse para estimar riesgos, identificar patrones, como tus gustos de series en Netflix, hasta la predicción de conductas criminales y como instrumento de vigilancia masiva mediante el reconocimiento de rostros, voces o rastros digitales.

En este contexto, el principal cuestionamiento que ha centralizado la discusión sobre las ramificaciones éticas y legales de la IA ha sido la afectación a la privacidad de las personas[3]. Sin embargo, existe un amplio espectro de afectaciones al bienestar de las personas que no se reduce a la privacidad, sino que puede vulnerar otros derechos humanos (DDHH). Por ejemplo, ante los actos de violencia policial y buscando evitar el perfilado racial en las protestas realizadas en Estados Unidos, empresas como IBM, Amazon o Microsoft suspendieron la oferta de sus servicios de reconocimiento facial a la policía de este país[4].

Para resaltar este punto, a continuación se presentan casos donde se podrían estar vulnerando los DDHH: 

1. Discriminación y sesgos contra las minorías

De acuerdo con (Buolamwini y Gebru, 2018)[5] la mayoría de softwares comerciales de reconocimiento facial tienen una tasa de error más elevada al detectar rostros femeninos y de piel oscura (tasa de error fluctuante entre 20.8 a 34.7%) en comparación a rostros masculinos y de piel clara (tasa de error fluctuante entre 0.0 y 0.3%), lo que podría deberse a que estos algoritmos se entrenan con base de datos de rostros predominantemente caucásicos. Estos datos por sí solos ya representan un legítimo cuestionamiento a si estos servicios basados en IA cumplen o no con un trato justo y no discriminatorio.

Fuente: Twitter / @Chicken3gg

La situación se agrava cuando la policía utiliza este tipo de algoritmos para realizar detenciones. Así, la Unión Estadounidense por las Libertades Civiles (2018)[6] en un testeo de los softwares de reconocimiento encontró que éstos identificaban incorrectamente a 28 miembros del congreso de Estados Unidos con personas que fueron arrestadas por crímenes, de los cuales el 40% correspondía a personas de color, aunque solo representan el 20% de los miembros del congreso.

Este tipo de errores también estaría afectando el debido proceso al bordear con las detenciones arbitrarias, como sucedió hace algunos días cuando se detuvo a Robert Julian Borchak Williams, afroamericano de 42 años, atribuyéndole delitos que no cometió por un error en el algoritmo de reconocimiento facial.[7]

2. IA y crímenes

Puntualmente, la IA es una tecnología que, de ser usada por sujetos malintencionados, potenciaría una amplia variedad de actividades criminales, encontrándose entre ellos el robo de información personal a través de phishing, que puede mejorar su efectividad con mejoras en la falsificación de la voz y el monitoreo de llamadas.

3. Algoritmos secretos

¿Qué pasaría si los cuestionamientos a los algoritmos de reconocimiento facial también fueran aplicables a los algoritmos que buscan predecir el comportamiento futuro de los encarcelados? Esa problemática existe en el caso del algoritmo COMPAS, que debe de llevar una advertencia previa a su uso sobre sus potenciales sesgos por orden de la Corte Suprema de Wisconsin[8]

A pesar de lo anterior, dicho algoritmo es usado para estimar el riesgo de reincidencia y está en controversia si sus resultados son discriminatorios al predecir un riesgo más alto para los acusados afroamericanos en comparación a los acusados blancos[9], aunque, también existen refutaciones de lo señalado[10].

No obstante, en este caso existe otro problema relevante que radica en la falta de transparencia sobre el funcionamiento del algoritmo, el cual se comporta como una caja negra (black box) para los terceros interesados, ya que la compañía desarrolladora rechaza detallar el funcionamiento del algoritmo amparándose en que es su propiedad intelectual. Esto nos lleva a  pensar que se puede estar vulnerando el derecho a la tutela jurisdiccional efectiva ante un sistema de justicia opaco, que usa algoritmos de forma poco transparente[11].

Los casos presentados han servido para ilustrar que la IA tiene múltiples cuestionamientos éticos y legales y, como ya se señaló, éstos no son solo sobre privacidad. Si esto es así, para el desarrollo e implementación de la IA en el Perú no es suficiente con tener una ley de protección de datos personales como marco normativo.

Sobre este punto, se podría argumentar que es natural un vacío normativo sobre la IA al ser una tecnología nueva; sin embargo, ese razonamiento es bastante débil al existir varios países en la región que se encuentran en proceso de elaboración de planes, políticas o estrategias nacionales que tienen como objeto expreso a la IA (Argentina[12], Brasil[13] y Chile[14]) o ya los tienen aprobados (Colombia[15] y Uruguay[16]).

Ante esta situación, el Perú debería dar un primer paso, bajo la rectoría de la Secretaría de Gobierno Digital de la PCM con el apoyo de la Ciudadanía, ONGs y la Academia, al elaborar un marco de trabajo acorde a los desafíos de la IA. Con tal fin, se proponen las siguientes acciones:

  1. Determinar cuáles serán los principios éticos que nos servirán de guía para el desarrollo y aplicación de iniciativas IA que respeten los DDHH y sean afines a nuestros valores como sociedad.
  2. Diseñar, escoger e implementar las herramientas regulatorias, los estándares técnicos o los sistemas de incentivos que aseguren una efectiva aplicación de dichos principios.

Estas acciones nos servirán para ponernos al día en el desarrollo de un marco de gobernanza de la IA y en la segunda parte de este artículo profundizaremos en estos puntos.


 

[1] Defense Innovation Board (2019). AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense. Recuperado el 20.06.20 de: https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF

[2] N. del T. Del  inglés “a variety of information processing techniques and technologies used to perform a goal-oriented task and the means to reason in the pursuit of that task”.

[3] Un ejemplo de lo anterior, es enfocarse en las preocupaciones de privacidad derivadas del uso del software Rekognition de Amazon y no incluir otras afectaciones relevantes como la discriminación y el error de atribución de los algoritmos. Al respecto, ver: Williams, J. y Lynch, J. (2020) Amazon, Stop Powering Government Surveillance. Electronic Frontier Foundation. Recuperado el 21.06.20 de: https://www.eff.org/deeplinks/2018/05/amazon-stop-powering-government-surveillance

[4] Greene, J. (2020)  Microsoft won’t sell police its facial-recognition technology, following similar moves by Amazon and IBM. The Washington Post . Recuperado el 21.06.20 de: https://www.washingtonpost.com/technology/2020/06/11/microsoft-facial-recognition/

[5] Buolamwini, J. y Gebru, T. (2018) Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research. 81:1-15. Recuperado el 21.06.20 de: https://dam-prod.media.mit.edu/x/2018/02/06/Gender%20Shades%20Intersectional%20Accuracy%20Disparities.pdf

[6] Snow, J. (2018) Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots. ACLU. Recuperado el 21.06.20 de: https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28

[7] Hill, K. (2020) Wrongfully Accused by an Algorithm. The New York Times. Recuperado el 24.06.20: https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html#click=https://t.co/xG7Y4G0aH2

[8] Ver: Harvard Law Review (2017) State v. Loomis. Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. Recuperado el 22.06.20 de: https://harvardlawreview.org/2017/03/state-v-loomis/

[9] Angwin, J., Larson, J., Mattu, S. y Kirchner, L. (2016) Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. Recuperado el 20.06.20 de: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

[10] Flores, A., Lowenkamp, C. y Bechtel, K. (2017) False Positives, False Negatives, and False Analyses: A Rejoinder to “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks.” Recuperado el 21.06.20 http://www.crj.org/assets/2017/07/9_Machine_bias_rejoinder.pdf

[11] Pasquale, F. (2017) Secret Algorithms Threaten the Rule of Law.  MIT Technology Review. Recuperado el 24.06.20 de: https://www.technologyreview.com/2017/06/01/151447/secret-algorithms-threaten-the-rule-of-law/

[12] Presidencia de la Nación (2018) Plan Nacional de Inteligencia Artificial. Recuperado el 20.06.20 de: https://www.uai.edu.ar/ciiti/2019/buenos-aires/downloads/B1/JA-Plan-Nacional-IA.pdf

[13] Brasil país digital (2019) Estratégia Brasileira de Inteligência Artificial. Recuperado el 20.06.20 de:  https://brasilpaisdigital.com.br/estrategia-brasileira-de-inteligencia-artificial/

[14] Ministerio de Ciencia, Tecnología, COnocimiento e Innovación (2019) Proceso de participación para contribuir con la Política Nacional de Inteligencia Artificial. Recuperado el 20.06.20 de:  http://www.minciencia.gob.cl/Pol%C3%ADticaIA

[15] Consejo Nacional de Política Económica y Social de la República de Colombia (2019) Política Nacional para la Transformación Digital e Inteligencia Artificial. Recuperado el 24.06.20 de: https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/3975.pdf

[16]Agencia de Gobierno electrónico y Sociedad de la Información y del Conocimiento (2019) Estrategia de Inteligencia Artificial para el Gobierno Digital. Recuperado el 20.06.20 de: https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/sites/agencia-gobierno-electronico-sociedad-informacion-conocimiento/files/documentos/publicaciones/Estrategia%20IA%20-%20versi%C3%B3n%20espa%C3%B1ol.pdf

 

- Aviso Publicitario-
Rommel Infante
Abogado por la Universidad Nacional Mayor de San Marcos (UNMSM), con especialización en Economía del Comportamiento por la Universidad del Pacífico. Interesado en la arquitectura de decisiones, la transformación digital, startups, legal tech, la regulación y el uso ético de las nuevas tecnologías. Actualmente, se desempeña como asociado del estudio Caro & Asociados en el área de Compliance y Nuevas Tecnologías. Correo electrónico: rommelinfanteasto@gmail.com

Similares

1,831FansMe gusta
443SeguidoresSeguir
70SeguidoresSeguir

Suscríbete

*Todos los campos son requeridos
es Spanish
X