No hay duda que la inteligencia artificial ha transformado completamente nuestra forma de vivir. Se ha convertido en una parte importante de nuestra vida diaria desde el reconocimiento de imágenes o datos biométricos, las aplicaciones conversacionales como Alexa, asistente de Google o Siri, hasta máquinas autónomas y sistemas de hiperpersonalización dentro del proceso industrial de casi todos los sectores.
Sin embargo, seamos honestos, la mayoría de las personas que conocemos no entienden realmente cómo funciona la inteligencia artificial ni cómo procesa la información. A medida que la inteligencia artificial se convierte en una parte importante de nuestras vidas, es crucial saber cómo funciona, para que así, podamos hacer que respondan como se espera, dando explicaciones y razones concretas sobre las decisiones que toman.
Hay toda una rama de inteligencia artificial que estudia exactamente esto, cómo el sistema toma decisiones y tiene el nombre de Explainable AI (XAI) o Inteligencia Artificial Explicable. Utilizan algoritmos de aprendizaje automático como árboles de decisión y clasificadores con cierta trazabilidad y transparencia. La Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA) describe la IA Explicable en tres partes: exactitud de la predicción, es decir, modelos que expliquen cómo se llega a las conclusiones para mejorar la toma de decisiones en el futuro, los usuarios y operadores humanos, así como la inspección y la trazabilidad de las acciones realizadas por los sistemas de IA.
Por supuesto, no todas las industrias y los sistemas de IA necesitan el mismo grado de trazabilidad y transparencia pero a medida que la inteligencia artificial crece en las industrias como el cuidado de la salud o la industria automotriz con automóviles autónomos. La explicación de cómo estos sistemas toman decisiones impactará directamente en nuestras vidas y XAI será aún más importante.
La industria financiera es un territorio donde la inteligencia artificial es crucial, y necesitamos entender cómo se toman decisiones y cómo estas decisiones impactan en nuestras vidas. Con el machine learning y la IA tomando decisiones sobre la denegación o aceptación de tarjetas de crédito, es importante asegurarnos que esto sucede de una manera segura. Si hay datos sobre ti, como perfiles en redes sociales, el IP del ordenador, el lugar donde compras ropa o la forma como te comportas con las compras en línea, probablemente haya una forma de integrar ésta información en un modelo de crédito.
Hoy en día, los prestamistas pueden ver que tan confiable eres analizando métricas sencillas como el tipo de ordenador que utilizas, el tipo de dispositivo con el que te conectas (teléfono, tableta, PC), la hora del día en que solicitaste el crédito, tu dominio de correo electrónico y si tu nombre forma parte de tu correo electrónico (los nombres son una buena señal). Puede que no sea la mejor manera de hacerlo, pero es más fácil que analizar y obtener todo tu historial de crédito. A medida que el machine learning y la IA recogen más datos de comportamiento en línea será en un método cada vez más utilizado por los prestamistas de crédito. Esto suscita preguntas como: ¿Es legal o ético discriminar a alguien sólo por el tipo de ordenador que utiliza u otros datos sesgados que la IA no puede distinguir?
Es más importante que nunca entender cómo la IA está realmente dando forma al mundo y cómo toma decisiones por nosotros. Si estamos permitiendo que las máquinas y la inteligencia artificial creen patrones, tomen decisiones y tengan injerencia directa en nuestras vidas, aprendamos sobre ello, hagámoslo bien y obtengamos el mayor valor posible.
Si te ha gustado este artículo, suscríbete a mi newsletter y sígueme en las redes sociales como LinkedIn, Twitter o Instagram para estar al día en temas de tecnología, innovación, finanzas, fintech, emprendimiento y mucho más.
Fuentes:
Forbes: Understanding Explainable AI
Brookings: Credit denial in the age of AI