Índice de contenido
En los últimos años hemos asistido a un avance sin precedentes en Inteligencia Artificial. Modelos capaces de predecir, recomendar, diagnosticar y tomar decisiones automatizadas han ganado protagonismo en múltiples sectores. Sin embargo, cuando entran en juego los procesos de decisión humanos, surgen nuevas complejidades que estos sistemas aún no siempre logran abordar con precisión.
En este contexto, Juan de Rus, nuestro managing partner de Neovantas, participó en la 3ª Conferencia del Índice Español de Innovación, organizada por la Universidad Carlos III de Madrid, con una ponencia titulada “El factor humano de la IA”, donde abordó cómo la Economía Conductual puede aportar una perspectiva complementaria para entender las limitaciones actuales de la Inteligencia Artificial.
«Los seres humanos vivimos en un mundo complejo, estamos abrumados por la información y, para tomar decisiones, recurrimos a atajos mentales. Eso nos lleva, inevitablemente, a desviaciones de la racionalidad», explicaba durante su intervención.
Frente a esta realidad, la Economía Conductual nos recuerda algo esencial: el comportamiento no depende solo del individuo, sino también del contexto. Y aquí es donde la Inteligencia Artificial encuentra uno de sus mayores retos. Porque, como señaló el ex vicepresidente senior de IBM, John Kelly: «Los ordenadores son idiotas brillantes».
Aunque la IA ha avanzado enormemente en procesamiento y automatización, sigue presentando limitaciones importantes en áreas clave como:
- Creatividad
- Adaptación al contexto
- Psicología social
Cuando se aplica a situaciones que implican decisiones humanas, estas limitaciones pueden dar lugar a errores o interpretaciones incorrectas. En este sentido, Juan de Rus destacó algunos de los sesgos más frecuentes que pueden surgir:
- Sesgo de selección: se produce cuando los datos utilizados para entrenar un sistema de IA no representan adecuadamente la realidad que se quiere modelar. Esto puede dar lugar a resultados erróneos o poco fiables.
- Aversión a los algoritmos: ocurre cuando se prefieren las decisiones humanas a las tomadas por algoritmos, incluso en casos en los que los algoritmos superan a las personas en términos de eficacia y precisión.
- Uncanny Valley: tiene lugar cuando un robot se parece demasiado a un ser humano en su apariencia o comportamiento. Aunque no sea realmente humano, esta similitud puede provocar rechazo o incomodidad.
Factor Humano y la IA
Ante el avance de la IA, el factor humano es vital porque los sistemas automatizados a menudo no logran abordar las complejidades de nuestras decisiones, marcadas por atajos mentales y contextos emocionales complejos.
Juan de Rus destaca que la Economía Conductual ofrece la perspectiva necesaria para entender las limitaciones de la IA, explicando por qué los seres humanos nos desviamos de la racionalidad pura al tomar decisiones.
Como señaló John Kelly de IBM, la IA es un "idiota brillante": tiene una capacidad de procesamiento asombrosa pero carece de intuición sobre el factor humano, la empatía y la comprensión profunda de las normas sociales.
Las limitaciones más críticas de la IA frente al factor humano residen en la creatividad, la capacidad de adaptación al contexto dinámico y el entendimiento de la psicología social en interacciones complejas.
El sesgo de selección ocurre cuando los datos de entrenamiento no capturan la realidad del factor humano. Esto provoca que el sistema tome decisiones basadas en una visión parcial, generando resultados poco fiables.
La aversión a los algoritmos refleja la desconfianza del factor humano hacia la automatización. Muchos prefieren el juicio de una persona incluso cuando las máquinas demuestran ser más precisas estadísticamente.
El "Uncanny Valley" genera rechazo cuando la tecnología imita el comportamiento o apariencia del factor humano de forma casi perfecta pero no natural, provocando una sensación de incomodidad en el usuario.
No. La Economía Conductual nos recuerda que el factor humano está intrínsecamente ligado al contexto. La IA falla a menudo porque intenta predecir al individuo ignorando el entorno que lo rodea.





