Inteligencia Artificial
Investigadores de la firma de consultoría BetterUp Labs, en colaboración con el Stanford Social Media Lab, han acuñado un nuevo término para describir el trabajo de baja calidad generado por Inteligencia Artificial: «workslop».
Definido en una reciente publicación de la Harvard Business Review, el concepto se refiere a contenido laboral generado por IA que aparenta ser un buen trabajo, pero carece de la sustancia necesaria para avanzar significativamente en una tarea determinada. Este fenómeno podría ser una de las explicaciones detrás de un dato preocupante: el 95% de las organizaciones que han probado la IA informan no haber visto ningún retorno de su inversión.
¿Qué es exactamente el «Workslop»?
El «workslop» es el resultado de usar la IA generativa de forma superficial para producir textos, informes o análisis que, aunque pueden parecer correctos a primera vista, resultan ser «poco útiles, incompletos o carentes de contexto crucial». En lugar de acelerar los procesos, su efecto es el contrario:
- Crea más trabajo: Obliga a los compañeros de equipo o supervisores a invertir tiempo extra para interpretar, corregir o rehacer por completo la tarea.
- Transfiere la carga: El problema se desplaza «aguas abajo», afectando a quienes reciben el material y obstaculizando el flujo de trabajo general.
- Reduce el ROI de la IA: Contribuye a que la inversión en tecnología de IA no se traduzca en ganancias de productividad reales.
El impacto del «Workslop» en cifras
La prevalencia de este problema ya es notable. Una encuesta en curso realizada a 1.150 empleados a tiempo completo en Estados Unidos reveló que un 40% de los encuestados afirmó haber recibido «workslop» por parte de sus compañeros en el último mes. Este dato, junto con la falta de retorno de la inversión en IA, dibuja un panorama donde la adopción de la tecnología supera con creces su aplicación efectiva.
Indicadores Clave sobre la Adopción de IA y el «Workslop»
«El efecto insidioso del ‘workslop’ es que traslada la carga del trabajo aguas abajo, requiriendo que el receptor interprete, corrija o rehaga el trabajo».
Cómo evitar la trampa del «Workslop»
Para combatir este creciente problema, los investigadores de BetterUp Labs recomiendan que los líderes empresariales tomen un rol activo y establezcan una cultura de uso responsable de la IA. La solución no es prohibir la tecnología, sino guiar su implementación de forma estratégica.
Las dos claves principales son:
- Modelar un uso reflexivo de la IA: Los líderes deben demostrar cómo utilizar estas herramientas «con propósito e intención», enfocándose en la calidad y la mejora del trabajo, no solo en la producción masiva de contenido.
- Establecer directrices claras: Es fundamental «fijar barandillas claras para los equipos en torno a las normas y el uso aceptable» de la IA, definiendo qué se espera en términos de revisión, verificación de hechos y aporte de contexto humano.
En definitiva, la promesa de productividad de la inteligencia artificial solo se materializará cuando las organizaciones aprendan a integrarla como una herramienta para aumentar la inteligencia humana, no para reemplazarla sin un criterio claro.