Contxto – DataCiencia de Chile está presentando un software de vigilancia de IA visual para atacar el problema actual: la contingencia por Covid-19.
Kitún.ai utiliza un software de inteligencia artificial (IA) y aprendizaje automático bastante establecido y lo implementa en un formato fácil de usar.
Está hecho para que cualquier compañía, grande o pequeña e independientemente de sus capacidades, pueda usar su producto para observar, por ejemplo, a empleados, clientes, transeúntes y puedan aprender a discernir varias cosas acerca de ellos.
Todo parece ser muy simple pero si lo analizamos comienzan a surgir aspectos preocupantes. Y no, no me refiero a las personas que dicen que usar un cubrebocas es una violación a sus derechos…
Cómo funciona la IA para el control de la salud
La pandemia ha convertido las medidas preventivas de salud en una necesidad y catalogar a los compañeros de trabajo que no cumplen con esas medidas como un peligro es algo que simplemente no existía hace apenas unos meses.
La belleza de la IA es que es adaptable y aprende rápidamente a comprender nuevos problemas.
Kitún.ai puede identificar problemas como cubrebocas mal puestos, si las personas no están guardando una distancia apropiada entre ellas o incluso si un local sobrepasó su capacidad máxima.
Afortunadamente para aquellas compañías que se preocupan por invertir en hardware moderno, DataCiencia arregló todo para que solo tengas que comprar su software, pues su herramienta puede utilizarse en sistemas de vigilancia preexistentes, como cámaras de seguridad ya instaladas.
Por ejemplo, la herramienta podría detectar zonas problemáticas automáticamente. Si muchas personas se están reuniendo en un mismo punto, Kitún no solo la detecta, también puede ofrecer una solución, como otros puntos de reunión.
DataCiencia y la ética de la vigilancia con IA
Fiel a sus raíces chilenas, Kitún significa “ver más allá” en mapudungún, el idioma del pueblo mapuche. Por lo mismo, no estaría haciendo mi trabajo si no le preguntara a la compañía que viera más allá de su reluciente tecnología y me respondieran algunas preguntas incómodas.
Por lo tanto, Contxto se puso en contacto con el fundador de DataCiencia, Rodrigo Hermosilla, quién respondió algunas preguntas sobre el lado menos atractivo de la revolución de la vigilancia con IA: una que por fin está alcanzado las costas latinoamericanas.
Le pregunté a Hermosilla sobre la mención —bastante casual— de DataCiencia sobre cómo esta tecnología de vigilancia estaba “siendo usada a la usanza de las sociedades asiáticas”. Para mí eso despertó una señal de alerta, ya que cuando DataCiencia dice eso, mi cerebro dice:
Lo que el fundador dijo buscaba disipar cualquier preocupación:
Sin embargo, como normalmente ocurre en una región famosa por acomodar las reglas a su conveniencia (por decirlo amablemente), el “espíritu” detrás de las buenas intenciones de DataCiencia podría ser insuficiente en América Latina.
Entonces, pregunté qué estaban haciendo concretamente para prevenir cualquier malversación por parte de las compañías y gobiernos que los contratan.
Hermosilla fue muy claro en este punto y dijo que únicamente “entregamos información suficiente para definir planes de acción comunitaria y de protección, los que en ningún caso pueden ser aplicados como condiciones particulares sobre individuos.”
La preocupante “nueva normalidad” de la vigilancia con IA
“La nueva normalidad” ya es una expresión muy común para hablar sobre las reglas y regulaciones que la pandemia nos impuso. Sin embargo, muchas de estas nuevas normas son reacciones a los males preexistentes en nuestras sociedades. Covid-19 simplemente los empeoró.
La IA y las implicaciones éticas detrás de su uso en la vigilancia no es muy diferente.
Este claramente no es un problema ocasionado o que deba ser resuelto por DataCiencia. Eso lo entiendo yo y lo entiende Hermosilla:
Muy cierto, pero ¿no será que este momento se parece más a lo que sucedió con la caja de Pandora?
Odio ser melodramático pero este es exactamente el tipo de dilema al que se enfrentó gente como Andrew Oppenheimer tras haber participado en la creación de la primera bomba atómica.
Él se lamentó enormemente por su poder destructivo y concluyó que todo el proyecto había sido “un grave error”.
La IA a simple vista no es tan destructiva como una bomba atómica, pero también es mucho más elegante como un arma de reconsturcción masiva.
La IA moldea nuestras sociedades de formas que todavía no comprendemos. Y conforme, en palabras de DataCiencia, se convierte en “un software que está al alcance de todos” nos enfrentaremos continuamente y cada vez más a la pregunta de si la estamos usando bien o incluso si eso es posible.
Yo diría que un buen inicio para comenzar a abordar la moralidad de la IA es si se utiliza individualmente o colectivamente. El control individual y la orientación social son dos resultados muy distintos, pero igual de probables, para el uso de la IA.
Por ahora, me alegra que, por lo menos en papel, Kitún.ia se encuentre en la segunda categoría.
Pero este es solo un pequeñísimo paso en un larguísimo viaje hacia la adopción de la IA y todavía estamos comprendiendo cómo su enorme poder aglomerativo puede ser usado para el bien… o no.
Artículos relacionados: ¡Tecnología y startups de Chile!
-AG
Traducido por Alejandra Rodríguez