Explicabilidad: Un concepto clave para el uso eficaz de modelos de inteligencia artificial

Explicabilidad: Un concepto clave para el uso eficaz de modelos de inteligencia artificial

Los modelos de inteligencia artificial son cada vez más complejos. Es importante que las empresas tengan claros los resultados y las sugerencias que generan estas herramientas, lo cual es posible gracias a las herramientas de explicabilidad.

Por: Francisco Rosales el 09 Abril 2024

Compartir en: FACEBOOK LINKEDIN TWITTER WHATSAPP

Los modelos de inteligencia artificial (IA) se han vuelto cada vez más complejos y sofisticados con el paso de los años. Algunos, por su propio funcionamiento, generan resultados bastante sencillos, pero otros toman en cuenta una cantidad de variables cada vez mayor y el proceso que siguen para realizar el cálculo es similar al de un cerebro humano, por lo que pueden resultar más difíciles de entender para las empresas que usan esta tecnología. 

Ante esta situación, hoy también se desarrollan herramientas que permiten comprender la manera en que la IA toma decisiones. Este concepto se denomina explicabilidad y es clave en el panorama actual para garantizar la transparencia y confianza en los sistemas de IA.

Comprensión de la IA

La explicabilidad permite a los usuarios comprender el proceso detrás de las recomendaciones o predicciones de una aplicación basada en IA. Ello no solo incrementa la confianza en este tipo de herramientas digitales, sino que también facilita su adopción y permite a las empresas comprender mejor sus limitaciones y potencial. Además, fomenta la generación de valor, al plantear nuevos escenarios o hipótesis.

Los algoritmos más explicables suelen ser aquellos que han sido estudiados en profundidad en la academia, como los algoritmos clásicos de estadística y de investigación de operaciones. Algunos ejemplos son la regresión lineal, la clasificación logística y el algoritmo simple para problemas de programación lineal.

En la actualidad, la mayoría de los modelos de IA son complejos y difíciles de entender, sobre todo los basados en deep learning o en árboles, como LightGBM y XGBoost. Estos destacan por su habilidad para identificar complejas interacciones y no-linealidades en los datos. No obstante, también existen diversas herramientas y métodos para incrementar la interpretabilidad de los modelos de IA. Algunos ejemplos son las librerías Python, como SHAP, tf-explain y Explain like I am 5(ELI5).

Valoración y desafíos

La importancia de los resultados generados por los modelos de IA dependerá de cuán útiles resulten sus predicciones para impulsar el crecimiento y la sostenibilidad de los negocios. Por ejemplo, un supermercado podría no estar interesado en comprender el funcionamiento de un algoritmo de procesamiento de imágenes para contar productos en los estantes, pero sí en entender qué factores afectan la elasticidad de los precios. En general, comprender los resultados de los modelos de IA puede ser crucial para tomar decisiones estratégicas.

Todavía existen retos importantes respecto al uso de los modelos de IA. Uno de ellos es que pueden reflejar y amplificar sesgos presentes en los datos de entrenamiento, lo que puede llevar a decisiones injustas o discriminatorias. Por ello, es imprescindible impulsar más el desarrollo de herramientas digitales enfocadas en la explicabilidad para identificar y abordar estos sesgos de manera efectiva, y garantizar así la confianza en la tecnología de IA. ¿Qué desafíos ha tenido tu organización para interpretar o comprender los resultados de los modelos de IA que utilizan? Cuéntanos tu experiencia.

Si quieres aprender más, te invitamos a conocer nuestro portafolio de productos del área de Tecnologías de la información que ESAN tiene para ti.

Francisco Rosales

Profesor investigador en ESAN Graduate School of Business. Doctor en Matemáticas por la Universidad de Goettingen. Magister en Matemáticas Aplicadas y Estadística por New York State University at Stony Brook. Ha sido consultor de empresas nacionales e internacionales en temas de análisis cuantitativo. Su principal área de investigación es la estadística no- paramétrica y sus aplicaciones a series de tiempo y data funcional.

Otros artículos del autor

Poder empresarial: La imperante necesidad de gestionar datos con eficiencia en América Latina

15 Marzo 2024
La gestión eficiente de datos permite a las empresas aumentar su productividad y tomar decisiones más acertadas. Estas ventajas les permitirán destacar en un entorno internacional en constante cambio.
  • Actualidad
  • Tecnología

¿Qué perfiles profesionales se requieren en la era de la inteligencia artificial?

05 Febrero 2024

Existe un amplio abanico de profesionales, aún en constante expansión, para cada uno de los cuatro módulos que conforman un sistema inteligente, es decir, basado en inteligencia artificial (IA).

  • Actualidad
  • Tecnología

¿Qué futuro les espera a las criptomonedas?

28 Junio 2019

El valor de los llamados "bitcoins" y otras criptomonedas se recuperaría tras ser adaptadas por empresas como Facebook, Samsung y las pequeñas fintechs. ¿Qué retos deben cumplir para lograrlo?

  • Actualidad
  • Tecnología