¿Abusan las startups del concepto de inteligencia artificial?

En esta columna quiero responder cómo las empresas usan inteligencia artificial (IA), si abusan del concepto y si las consecuencias de esto son inocuas. 

Las empresas ocupan un amplio rango de tecnologías de la información y es legítimo que muchas de ellas se denominen IA sin que tenga que haber una avanzada complejidad conceptual, algorítmica, ni de su escala, ni que se trate de tecnología de punta. Sin embargo, hay razones para pensar que se tiende a un abuso de lenguaje, donde el concepto de IA se usa como herramienta de marketing, para impresionar, independiente de la sustancia. 

Mi punto es que, en general, es legítimo usar el concepto de IA siempre que se usen tecnologías comúnmente denominadas IA y siempre que el uso de estas tecnologías entregue beneficios a la empresa. Lo problemático es que enfocarse mucho en IA saca de la discusión temas más importantes sobre el uso de estas tecnologías y lleva a confusiones en el uso del “sentido común” del término IA en la sociedad. Además, abusar del concepto de IA podría no ser una estrategia efectiva hoy en día, debido a precedentes recientes, que ya revisaré.

Hay muchas definiciones sobre IA y no pretendo hacer una taxonomía, ni comentar aspectos históricos. Sí quiero distinguir entre IA e inteligencia artificial general, la que se plantea como un proyecto más ambicioso, cuyos frutos aún no se manifiestan (ni se sabe si esto ocurrirá)

Me referiré acá entonces a la IA a secas. Mi opinión está basada en notar una interesante definición de IA en una propuesta de la comisión europea que busca generar un marco jurídico regulatorio para proteger a la ciudadanía de sus posibles riesgos.

“Un sistema de inteligencia artificial es un sistema de software desarrollado con una o más técnicas en el Anexo I y que puede, dada una lista de objetivos impuestos por humanos, generar outputs como contenido, predicciones, recomendaciones, y decisiones influenciando el ambiente con el que se interactúa”.

Las técnicas del anexo son (a) machine learning, (b) lógica y sistemas basados en conocimiento y (c) enfoques estadísticos y de optimización. 

Esta propuesta destaca por el pragmatismo en las definiciones, en vez de acudir a vaguedades o discursos de ciencia ficción. Hay razones para esta definición: aunque si bien históricamente las tecnologías en (b) han sido importantes, hoy están en declive y la preeminencia de la IA se debe a los avances producidos por las tecnologías agrupadas en (a). A su vez, estas tecnologías se basan fuertemente en conceptos matemáticos y estadísticos más fundamentales, agrupados en (c). 

Mucha de la discusión respecto a si una herramienta califica o no como IA tiene que ver con la tensión entre (a) y (c). Este comic de SandSerif resume bien esta discusión, usual fuente de conflicto:

 

 

Algunos miembros del público y académicos que trabajan en áreas “postergadas” constantemente reclaman que machine learning es sólo una versión glorificada de la estadística, un hype, sin que haya una diferencia fundamental. 

De la misma manera, se critica que técnicas sencillas —como una regresión, buscar la recta que mejor se ajuste a un conjunto de puntos para encontrar relación entre variables— se vendan como IA, lo que sería deshonesto. De acuerdo a la propuesta de la Comisión Europea hacer regresión, de hecho, califica como IA si es que su producto influencia el ambiente con el que interactúa.

Los reclamos contra el hype del machine learning tiene un punto, pero a veces se cae en extremismos. Machine learning se ha establecido como una disciplina académica y sus conceptos no se reducen a la estadística, debido a su enfoque computacional. Es finalmente el aumento explosivo en capacidad computacional de los últimos años lo que explica el éxito reciente de la IA y su preeminencia en la sociedad. Eso significa que machine learning y los enfoques estadísticos no son lo mismo, tanto desde sus fundamentos sobre su ámbito de aplicación

La paradoja es que englobar ambos en el mismo concepto de IA parece no hacerle justicia a la distinción. Pero si el afán es práctico, para mí no tiene ningún problema. No hay ningún problema con decir que una regresión lineal es IA si su resultado será útil para ayudar humanos en tareas demandantes cognitivamente. Además, hay toda una tendencia que busca simplificar los métodos actuales de IA para hacerlos más interpretables

Una simple regresión puede ser también un objeto extremadamente complejo, sobre todo en los regímenes más modernos. Por ejemplo, un problema muy importante en genómica es determinar de qué manera la expresión de variantes de ciertos genes puede incrementar el riesgo de una enfermedad. Esta pregunta se plantea en términos de regresiones donde se determina la medida en que cada gen puede explicar una enfermedad, y esto rápidamente lleva a grandes dificultades estadísticas, ya que al haber miles de genes se genera el problema de que pueden aparecer “descubrimientos falsos”, que son simplemente correlaciones espúreas. 

Venta de humo 

Finalmente, hay un asunto práctico: ¿es legítimo decir que la regresión lineal de mi startup es IA siendo que diez años atrás sería una simple regresión? Acá hay que entender los incentivos: hablar de IA hoy en día es cool, lo convierte a uno en agente de una revolución tecnológica en curso. El pionero Andrew Ng mencionaba con entusiasmo que la AI es la nueva electricidad y que entonces hay una carrera por beneficiarse de “ser el primeros en usar IA para…” o “inventar una IA para…”.

De hecho, vender tu trabajo como IA ha sido una estrategia de mercado útil. Hace unos años se reportaba que las startups que se califican en el rubro de IA obtenían entre 15% y 50% más dinero en las rondas de financiamiento. Pero también en estos últimos años se han comprendido mejor los alcances y limitaciones de estas tecnologías: se sabe que buena parte de estas startups no estaban utilizando IA de manera sustancial en su proceso productivo. Además, ha habido casos un poco escandalosos, como uno de tareas predictivas en medicina, donde muchas veces aparentemente sofisticados algoritmos de deep learning daban resultados no superiores a los métodos más simples, indicando que no había necesidad de tanta sofisticación. 

Lo anterior sugiere que hoy en día ya no debería ser fácil usar la IA livianamente como una herramienta para levantar fondos, aunque posiblemente todavía lo sea para impresionar amigos, familia y al público no experto. Quizás, debido al desfase natural de adopción de tecnologías entre economías desarrolladas y emergentes, todavía exista un espacio más grande para “vender humo” en Latinoamérica, pero no debería existir por mucho más. 

La pregunta de si es legítimo llamar a algo IA tiene que ver con cuál es el problema que se busca resolver, con cómo los métodos que se usan (simples o no) ayudan a responder esa pregunta y de si existen los medios para hacerlo. Por ejemplo, si una persona se propone desarrollar una IA que detecta cáncer a la piel en base a una imagen, tanto o más importante que el método mismo será el tener acceso privilegiado a un conjunto de entrenamiento computacional suficientemente grande. 

A fin de cuentas, el valor de IA de la tecnología va a tener más que ver con eso a que si se usa una regresión o un transformer. En el caso de NotCo, una de las startups de Latinoamérica que más usan el concepto, tanto o más importante que Giusseppe (como llaman ellos a su IA) es la existencia de una plataforma de desarrollo de alimentos que permita realizar sugerencias originadas por el computador. 

 

(Imagen: Adobe Stock)

 

Citando un caso controversial: recientemente se manifestó preocupación por Clearview AI, una tecnología que busca generar métodos de reconocimiento de caras. La controversia es que para lograr esa precisión se tuvo que hacer un “scrapping”, buscar en la web de manera potencialmente ilegal billones de fotos para así alimentar el algoritmo. Se puede argumentar que la IA tiene tanto que ver con el algoritmo que con los datos acumulados. 

El aspecto cultural 

No es casual que Rosalía en un tema diga “I de IA”. Demuestra el gran nivel de penetración actual de la IA en la cultura. Es en este ámbito donde los problemas asociados al abuso de lenguaje finalmente se manifiestan en modo de desinformación. Por ejemplo, existe la creencia generalizada de que el impresionante progreso en los robots de Boston Dynamics se debe al uso de IA, cuando en realidad se trata de herramientas clásicas de control e ingeniería mecánica. Por eso, para evitar contribuir a esta desinformación es mejor evitar usar palabras sólo porque son un buzzword sin que haya una razón de peso. Michael I Jordan, uno de los pioneros de la estadística y el machine learning, escribió en 2019 un influyente artículo, “La revolución de AI todavía no ha ocurrido”, donde dice que el mayor problema del abuso del concepto es que nos distrae sobre aspectos más importantes: hablar de IA mueve el debate en torno a exuberantes fantasías de ciencia ficción e inhibe la discusión sobre los problemas más importante que surgen con este nuevo tipo de tecnologías (para él, simplemente un nuevo tipo de ingeniería centrada en los humanos): confiabilidad, privacidad, robustez, imparcialidad, etc. Tres años después no parece haber grandes cambios en ese sentido.

(Imagen principal: Adobe Stock)

Scaling a startup or scouting for your next deal?
We help you get there faster.