Skip to main content

En los últimos años hemos asistido a un avance sin precedentes en Inteligencia Artificial. Modelos capaces de predecir, recomendar, diagnosticar y tomar decisiones automatizadas han ganado protagonismo en múltiples sectores. Sin embargo, cuando entran en juego los procesos de decisión humanos, surgen nuevas complejidades que estos sistemas aún no siempre logran abordar con precisión.

En este contexto, Juan de Rus, nuestro managing partner de Neovantas, participó en la 3ª Conferencia del Índice Español de Innovación, organizada por la Universidad Carlos III de Madrid, con una ponencia titulada “El factor humano de la IA”, donde abordó cómo la Economía Conductual puede aportar una perspectiva complementaria para entender las limitaciones actuales de la Inteligencia Artificial.

«Los seres humanos vivimos en un mundo complejo, estamos abrumados por la información y, para tomar decisiones, recurrimos a atajos mentales. Eso nos lleva, inevitablemente, a desviaciones de la racionalidad», explicaba durante su intervención.

Frente a esta realidad, la Economía Conductual nos recuerda algo esencial: el comportamiento no depende solo del individuo, sino también del contexto. Y aquí es donde la Inteligencia Artificial encuentra uno de sus mayores retos. Porque, como señaló el ex vicepresidente senior de IBM, John Kelly: «Los ordenadores son idiotas brillantes».

Aunque la IA ha avanzado enormemente en procesamiento y automatización, sigue presentando limitaciones importantes en áreas clave como:

  • Creatividad
  • Adaptación al contexto
  • Psicología social

Cuando se aplica a situaciones que implican decisiones humanas, estas limitaciones pueden dar lugar a errores o interpretaciones incorrectas. En este sentido, Juan de Rus destacó algunos de los sesgos más frecuentes que pueden surgir:

  • Sesgo de selección: se produce cuando los datos utilizados para entrenar un sistema de IA no representan adecuadamente la realidad que se quiere modelar. Esto puede dar lugar a resultados erróneos o poco fiables.
  • Aversión a los algoritmos: ocurre cuando se prefieren las decisiones humanas a las tomadas por algoritmos, incluso en casos en los que los algoritmos superan a las personas en términos de eficacia y precisión.
  • Uncanny Valley: tiene lugar cuando un robot se parece demasiado a un ser humano en su apariencia o comportamiento. Aunque no sea realmente humano, esta similitud puede provocar rechazo o incomodidad.