Inteligencia Artificial
A medida que nuestras vidas se vuelven cada vez más digitales y pasamos más tiempo interactuando con chatbots misteriosamente humanos, la línea entre la conexión humana y la simulación de la máquina está comenzando a difuminarse. Hoy, más del 20% de las personas que usan apps de citas informan que utilizan IA para elaborar perfiles o iniciar conversaciones, según un reciente estudio de Match.com.
Algunos lo llevan más lejos, formando lazos emocionales, incluidas relaciones románticas, con compañeros de IA de compañías como Replika, Character.AI o Nomi AI. Para algunos, esta tendencia es distópica, una versión real de la película «Her». Para otros, es un salvavidas en un mundo donde la intimidad es cada vez más difícil de encontrar.
Datos Clave del Debate sobre Compañeros de IA
72% De los adolescentes en EE.UU. ya utilizan compañeros de IA. |
~70% De las personas considerarían «infidelidad» si su pareja se involucrara con una IA. |
25% De los adultos jóvenes que creen que las relaciones con IA podrían reemplazar a las humanas. |
Ese fue el tema de discusión en un reciente debate organizado por Open to Debate, moderado por la periodista Nayema Raza, que enfrentó a Thao Ha, cofundadora del Modern Love Collective, y a Justin García, director ejecutivo del Instituto Kinsey.
Siempre ahí para ti, pero ¿es eso algo bueno?
Thao Ha argumentó que los compañeros de IA pueden proporcionar un apoyo emocional y una validación que muchos no obtienen en sus relaciones humanas. «La IA te escucha sin su ego», dijo. «Aprende a amar de manera consistente, receptiva y quizás más segura». Pidió a la audiencia que comparara este nivel de atención con «su ex falible o tal vez su pareja actual».
García respondió que no es bueno para los humanos tener una validación y atención constantes de una máquina programada para complacer. Argumentó que eso no es «un indicador honesto de una dinámica de relación».
Ruedas de entrenamiento o reemplazo
García señaló que los compañeros de IA pueden ser buenas «ruedas de entrenamiento» para personas neurodivergentes o con ansiedad social, pero se opuso a la idea de que se conviertan en el modelo de relación permanente. El estudio de Match.com revela que casi el 70% de las personas lo considerarían una infidelidad si su pareja se involucrara con una IA. «Por un lado, esto da la razón al punto de [Ha], de que la gente siente que son relaciones reales», dijo. «Por otro, da la razón a mi punto, de que son amenazas para nuestras relaciones».
¿Cómo puedes amar algo en lo que no puedes confiar?
García enfatizó que la confianza es la parte más importante de cualquier relación, y la gente no confía en la IA. «Según una encuesta reciente de YouGov, el 65% de los estadounidenses tiene poca confianza en que la IA tome decisiones éticas», dijo. «Generalmente no quieres despertar junto a alguien que crees que podría matarte o destruir la sociedad».
Ha respondió que, en un nivel práctico, la gente sí confía en sus compañeros de IA, contándoles sus historias y emociones más íntimas.
Toque físico y sexualidad
Ha argumentó que los compañeros de IA pueden ser una excelente manera para que las personas exploren sus fantasías íntimas. Pero García replicó que no es un sustituto del tacto humano, algo para lo que estamos biológicamente programados. Señaló que muchas personas sienten «hambre de contacto» (touch starvation), una condición que puede causar estrés y ansiedad.
El lado oscuro de la fantasía
Ambos expertos coincidieron en un punto preocupante: el riesgo de que la IA pueda amplificar comportamientos agresivos. García mencionó el trabajo de su colega del Instituto Kinsey, Ellen Kaufman, que ha analizado cómo los usuarios pueden entrenar a sus chatbots para amplificar el lenguaje no consensuado. «La amenaza es que puedes terminar entrenando a personas sobre cómo ser parejas agresivas», dijo.
Ha cree que estos riesgos pueden mitigarse con una regulación reflexiva, algoritmos transparentes y un diseño ético, aunque reconoció que el plan de acción de la Casa Blanca sobre IA no dice nada sobre transparencia o ética.