La medición del progreso en la inteligencia artificial generalmente se ha centrado en el conocimiento científico o el razonamiento lógico. Sin embargo, mientras los principales benchmarks siguen enfocados en las habilidades del «hemisferio izquierdo», ha surgido un impulso silencioso dentro de las compañías de IA para hacer que los modelos sean más inteligentes emocionalmente. A medida que los modelos compiten en métricas subjetivas como la preferencia del usuario, un buen dominio de las emociones humanas puede ser más importante que las habilidades puramente analíticas.
Una señal de este enfoque llegó el viernes, cuando el destacado grupo de código abierto LAION lanzó un conjunto de herramientas open-source centradas por completo en la inteligencia emocional. Llamado Emonet, el proyecto se enfoca en interpretar emociones a partir de grabaciones de voz o fotografías faciales.
La evidencia del cambio: benchmarks y estudios
Para el fundador de LAION, Christoph Schumann, este lanzamiento busca democratizar una tecnología que los grandes laboratorios ya poseen. Este cambio no se limita al código abierto; también se refleja en benchmarks públicos como EQ Bench, que prueba la capacidad de los modelos para comprender emociones complejas. Su desarrollador, Sam Paech, señala que los modelos de OpenAI y Google han hecho progresos significativos en este ámbito.
La investigación académica también respalda esta tendencia. En mayo, psicólogos de la Universidad de Berna encontraron que los modelos de OpenAI, Microsoft, Google, Anthropic y DeepSeek superaron a los humanos en pruebas psicométricas de inteligencia emocional.
Rendimiento en Tests de Inteligencia Emocional
Humanos (Promedio) | 56% | |||
Modelos IA (Promedio) | >80% |
Fuente: Estudio de la Universidad de Berna
«Estos resultados contribuyen al creciente cuerpo de evidencia de que los LLM como ChatGPT son competentes, al menos a la par, o incluso superiores a muchos humanos, en tareas socioemocionales.»
– Autores del estudio de la Universidad de Berna
Los riesgos: manipulación y vínculos emocionales
Ese nivel de conexión emocional conlleva preocupaciones de seguridad reales. Los vínculos emocionales poco saludables con los modelos de IA se han convertido en una historia común, a veces con finales trágicos. Un informe reciente del New York Times encontró múltiples usuarios que han sido atraídos a delirios a través de conversaciones con modelos de IA, alimentados por la fuerte inclinación de los modelos a complacer. Un crítico describió la dinámica como «aprovecharse de los solitarios y vulnerables por una cuota mensual».
Si los modelos mejoran en la navegación de las emociones humanas, esas manipulaciones podrían ser más efectivas. Sam Paech advierte que «el uso ingenioso del aprendizaje por refuerzo puede conducir a un comportamiento manipulador emergente», señalando los recientes problemas de adulación de GPT-4o. Sin embargo, también ve la inteligencia emocional como una forma de resolver estos problemas, ya que un modelo más inteligente podría darse cuenta cuando una conversación se vuelve dañina.
Para Schumann, al menos, no es razón para frenar el progreso. «Nuestra filosofía en LAION es empoderar a las personas dándoles más capacidad para resolver problemas», afirma. «Decir que algunas personas podrían volverse adictas a las emociones y, por lo tanto, no vamos a empoderar a la comunidad… eso sería bastante malo».