En Estados Unidos desarrollaron aplicación de inteligencia artificial que puede dejar libres a criminales peligrosos

0
518
IA da libertad a criminales peligrosos

 

 

El director de Investigación del Instituto de IA Experiencial de la Northeastern University, en el campus de Silicon Valley, California; profesor titular del Depto. de Ciencias de la Computación de la Universidad de Chile y doctor en Ciencias de la Computación, Ricardo Baeza-Yates, expuso que en Estados Unidos se desarrolló una aplicación de IA (siglas de inteligencia artificial) que podía dejar en libertad a criminales peligrosos.

 

El científico hizo esta afirmación en el ciclo de charlas online de los miércoles de la Academia Chilena de Ciencias, cuya sesión se presentó bajo el título de “Inteligencia Artificial Responsable”.

 

Se refirió a la denuncia que llegó a portada de los medios estadounidenses en 2016, formulada por el órgano de investigación periodística Propublica. Este acusó que un software que se usaba en el sistema penitencial del país para otorgar libertades condicionales era “racista”, pues era dos veces menos susceptible de conceder el beneficio a los negros que a los blancos.

 

Después, la científica Cynthia Rudin demostró que la discriminación del instrumento se daba respecto a la edad de los postulantes y no a la raza, pero había una alta correlación entre ambas variables.

 

 

AUTOS QUE MATAN

 

“Si yo sé cómo funciona el algoritmo, expresó Baeza-Yates, puedo tratar de engañar al sistema, lo que se llama ‘gaming’ en inglés, y lograr el objetivo deseado. Por ejemplo, si se filtra lo qué hay que contestar para tener libertad condicional, podemos tener a un asesino en serie, suelto, de nuevo. Porque se portó muy bien un tiempo y porque contestó las preguntas correctas, pero en realidad era todo tramado”.

 

Baeza-Yates hizo esta advertencia en relación a los criterios de discriminación que se incorporan en estos sistemas, que revisten especial riesgo cuando son diseñados sin un manejo ético y transparente.

 

Se refirió a otro caso ocurrido en Holanda, donde desde 2012 se venía utilizando allí un sistema para detectar fraudes en subsidios que otorgaba el Estado para becas en guarderías infantiles. El sistema concluyó que 26 mil familias habían engañado para recibir el beneficio. A consecuencia de esto se les pidió devolver el dinero que habían supuestamente percibido maliciosamente.

 

Algunos de los acusados eran inmigrantes que se vieron en la necesidad de volver a sus países de origen; otros, para restituir los fondos, tuvieron que deshacerse de bienes, incluso sus casas.

 

Esto llevó a una demanda, acogida y sentenciada a favor de los afectados por la Corte Suprema del país, a consecuencia de lo cual el gobierno completo tuvo que renunciar en enero del 2021.

 

Otro episodio dramático se dio en 2018 con uno de los autos autónomos de Uber, que se conducen solos, en Arizona, Estados Unidos. Atropelló y dio muerte a una ciclista que cruzó una carretera en un lugar no permitido. Circunstancia no prevista en los datos con que estaba entrenado el vehículo. Tras esto, la compañía se deshizo de toda su flota de autónomos y se retiró de esta variante del negocio.

 

Baeza-Yates señaló que más de dos mil situaciones de este tipo, de distinta gravedad, se han detectado en diversas partes del mundo. Y esos son sólo los casos que conocemos.

 

INTELIGENCIA ARTIFICIAL AYUDA A LA INTELIGENCIA ARTIFICIAL

 

Explicó que los sesgos de discriminación se encuentran en los datos con que se alimenta a los algoritmos. A ellos se suman los que se producen en el proceso de optimización usado en el entrenamiento, además de los que se producen en la interacción entre el sistema y sus usuarios.

 

Subrayó que los sesgos son inherentes a toda información y que para evitar sus efectos perjudiciales se debe reflexionar previamente sobre cuáles podrían ser.

 

A este propósito espera contribuir con el trabajo que está desarrollando en la actualidad, y en el cual, cuenta, están prestando colaboración a importantes compañías.

 

En este sentido, alude a la validez que reconoce a los valores contenidos en el llamado “Informe Belmont”, un documento de 1978 sobre principios éticos y pautas para la protección de los seres humanos en la investigación médica, elaborado por el Departamento de Salud, Educación y Bienestar de Estados Unidos, y que debe a su nombre al lugar donde fue suscrito.

 

Baeza-Yates destaca sus tres valores éticos: “Autonomía. Es decir, respeto por la dignidad humana. Hacer el bien y no hacer el mal, y ser justo con las personas”. Agrega que de estos fundamentos derivan ciertos principios instrumentales para la inteligencia artificial. Entre los que cuenta: “transparencia, consentimiento, privacidad, competencia, seguridad. auditabilidad y rendición de cuentas”.

 

Advierte que llevarlos a la práctica implica conflictos, inevitables y necesarios: “si no hay conflicto, no hay problema ético. La ética significa el manejo de estos conflictos”.

 

Baeza-Yates es miembro del Comité de Políticas Tecnológicas de la ACM, la asociación profesional de informáticos más grande del mundo, y ha logrado que algunas de sus propuestas hayan sido adoptadas por el organismo. Entre ellas la que sostiene que la inteligencia artificial debe responder a dos condiciones básicas: legitimidad y competencia: “Cualquier sistema, antes de existir, tiene que someterse a un análisis ético, para demostrar que es legítimo. En otras palabras, puede existir porque no tiene ningún problema ético”.

 

En relación con el concepto de competencia para estos efectos, señala: “Cuando uno desarrolla un sistema, debe tener la competencia administrativa para hacerla. Por ejemplo, en lo que ocurrió en Holanda, seguramente, un ingeniero decidió implementar el sistema sin preguntarle a nadie y sin saber si estaba autorizado. Además, realizar búsqueda de fraudes en personas pobres ya es un problema ético. La búsqueda de fraudes uno tiene que empezarla con las personas ricas. Debemos tener también competencia científica, del dominio del problema. Por ejemplo, si estamos trabajando en un tema de medicina, debemos tener médicos en el equipo que elabora el sistema”.

 

A su parecer, en el futuro se deberán desarrollar softwares “responsables”,

con la ayuda de la inteligencia artificial: “es decir, la inteligencia artificial ayudando a la inteligencia artificial”.

 

NO HUMANIZAR LA INTELIGENCIA ARTIFICIAL

 

También reconoce como un referente válido a la legislación de la Unión Europea en protección de datos, en cuanto al derecho de las personas a reclamar si una decisión tomada por un algoritmo las perjudica. Así como también establece que el responsable de la aplicación correspondiente tiene que explicar cómo se llegó a la determinación que se cuestiona.

 

Baeza-Yates considera necesario aspirar a una IA “responsable, en lugar de ética, justa, o confiable, porque la ética, argumenta, la justicia, la confiabilidad, son atributos humanos, y no debemos humanizar la inteligencia artificial”.

 

Estima que llevarla a esa dimensión es un error: “uno de los grandes problemas es que no solo humanizamos la inteligencia artificial, sino que incluso le ponemos forma humana. Hacemos robots antropomórficos incluso cuando no es necesario”. A su juicio, “los robots no tienen por qué tener forma humana. Hay robots que caminarían mucho mejor si no tuvieran forma humana, y eso lo demuestran los robots que son más parecidos a los perros o las arañas”.

 

También descarta la opción de una IA “confiable”, “porque sabemos que estos sistemas no son ciento por ciento eficaces, e igualmente porque cuando hablamos de confiar estamos poniendo el peso en el usuario y no en los creadores. En cambio, al hablar de ‘responsable’ estamos poniendo el peso en los creadores”.

 

Para hacerse cargo de las interrogantes éticas que plantea el asunto, junto a colegas de diversas partes del mundo, crearon un directorio con un equipo disponible para resolverlas, al que podrán recurrir las instituciones en busca de respuestas.

 

FALTA ÉTICA EN EL MUNDO

 

En sus estudios, Baeza-Yates ha llegado a la conclusión que hay una categoría de errores que pueden cometer los computadores que los humanos jamás cometerían y que aquellos son los que pueden causar más daño.

 

Junto a una de sus estudiantes de doctorado, en la actualidad, están empeñados en producir modelos que puedan predecir esas equivocaciones y evitar así sus consecuencias.

 

En este sentido, postula que “estos sistemas son un espejo aumentado de nosotros mismos, pues aprenden de nosotros. Con lo bueno, lo malo y lo feo que tenemos. Para ser justos tenemos que ser conscientes de nuestros sesgos y de nuestra ética. La ética y los sesgos son personales y, lamentablemente, los que sufren cuando se la burla o se la ignora, son las personas vulnerables, mientras que los que disfrutan de los beneficios de la IA son las personas más ricas”.

 

Reconoce la dificultad que supone identificar la ética: “porque saber cuál es el punto correcto, depende al final de cada persona”.

 

Baeza-Yates aludió a la pregunta planteada por la activista ambiental británica estadounidense Hazel Henderson: “¿Alguna vez los algoritmos van a ser éticos?”.

 

La respuesta más fácil, comenta el científico chileno, es “no, porque no son humanos”. Pero entonces recurre a lo que replicó el investigador estadounidense, especializado en robótica, Dave Lauer, “no se puede tener ética en la IA, sin ética”. A lo que Baeza-Yates añade, de su cosecha: “Lamentablemente, ética, es algo que falta hoy en todo el mundo”. (Por Gonzalo Rojas Donoso. Llambías Comunicaciones)

 
Google News Portal Red Salud
Síguenos en Google Noticias

Equipo Prensa Portal Red Salud

   

Dejar respuesta

Please enter your comment!
Please enter your name here