A medida que las herramientas de inteligencia artificial como ChatGPT se convierten en una vía cada vez más popular para las personas que buscan terapia personal y apoyo emocional, los peligros que pueden plantear (especialmente para los jóvenes) han aparecido en los titulares. Lo que no ha recibido tanta atención es que los empleadores utilizan la inteligencia artificial generativa para evaluar el bienestar psicológico de los trabajadores y brindar apoyo emocional en el lugar de trabajo.
Desde el cambio global hacia el trabajo remoto causado por la pandemia, industrias que van desde la atención médica hasta los recursos humanos y el servicio al cliente han visto un aumento en el número de empleadores que utilizan sistemas basados en inteligencia artificial diseñados para analizar el estado emocional de los empleados, identificar personas con trastornos emocionales y brindarles apoyo emocional.
Esta nueva frontera es un gran paso más allá del uso de herramientas de chat generales o aplicaciones de terapia individual para apoyo psicológico. Como investigadores que estudian cómo la inteligencia artificial afecta las emociones y las relaciones en el lugar de trabajo, nos preocupan las preguntas críticas que plantea este cambio: ¿Qué sucede cuando su empleador tiene acceso a sus datos emocionales? ¿Puede la IA realmente proporcionar el tipo de apoyo emocional que necesitan los trabajadores? ¿Qué pasa si falla la IA? Y si algo sale mal, ¿quién es el responsable?
La diferencia en el lugar de trabajo
Muchas empresas han comenzado a ofrecer programas de asesoramiento automatizados que tienen muchos paralelos con las aplicaciones de terapia personal, una práctica que ha demostrado algunos beneficios. En estudios preliminares, los investigadores han descubierto que en un entorno de conversación virtual al estilo médico-paciente, las respuestas generadas por IA en realidad hacen que las personas sean más audibles que los humanos. Un estudio que comparó los chatbots de IA con psicoterapeutas humanos encontró que los robots eran "al menos tan empáticos como las respuestas del terapeuta, y a veces más".
Esto puede parecer sorprendente a primera vista, pero la IA ofrece una atención inquebrantable y respuestas de apoyo constantes. No interrumpe, no juzga y no se frustra cuando le repites las mismas preocupaciones. Para algunos empleados, especialmente aquellos que se enfrentan a cuestiones estigmatizadas como la salud mental o los conflictos en el lugar de trabajo, esta coherencia resulta más segura que la interacción humana.
Pero para otros, plantea nuevas preocupaciones. Un estudio de 2023 encontró que los trabajadores se muestran reacios a participar en programas de salud mental iniciados por la empresa debido a preocupaciones sobre la confidencialidad y el estigma. Muchos temían que sus revelaciones pudieran afectar negativamente a sus carreras.

Los empleados pueden sentir que los sistemas de apoyo emocional de IA se parecen más a la vigilancia en el lugar de trabajo. Malte Mueller/fStop vía Getty Images
Workplace Options, un proveedor global de asistencia a los empleados, se ha asociado con Wellbeing.ai para implementar una plataforma que utiliza análisis facial para rastrear estados emocionales en 62 categorías de emociones. Genera puntuaciones de bienestar que las organizaciones pueden utilizar para detectar estrés o problemas morales. Este enfoque incorpora efectivamente la IA en aspectos emocionalmente sensibles del trabajo, dejando una línea incómodamente delgada entre apoyo y supervisión.
En este escenario, la misma IA que ayuda a los empleados a sentirse escuchados y apoyados también genera una visión sin precedentes de la dinámica emocional de la fuerza laboral. Las organizaciones ahora pueden monitorear qué departamentos muestran signos de agotamiento, identificar a los empleados en riesgo de renunciar y rastrear las reacciones emocionales al cambio organizacional.
Pero este tipo de herramientas también transforma datos emocionales en inteligencia de gestión, poniendo a muchas empresas en un verdadero dilema. Mientras que las organizaciones progresistas instituyen una estricta gobernanza de datos (limitando el acceso a formularios anónimos en lugar de conversaciones individuales), otras luchan con la tentación de utilizar conocimientos emocionales para evaluar el desempeño y tomar decisiones de personal.
El monitoreo continuo por parte de algunos de estos sistemas puede ayudar a garantizar que las empresas no pasen por alto a un grupo o individuo en problemas, pero también puede llevar a las personas a monitorear sus acciones para evitar llamar la atención sobre sí mismos. Las investigaciones sobre el seguimiento de la inteligencia artificial en el lugar de trabajo han demostrado que los empleados experimentan un mayor estrés y cambian su comportamiento cuando saben que la dirección puede revisar sus interacciones. El seguimiento socava la sensación de seguridad que las personas necesitan para sentirse cómodas pidiendo ayuda. Otro estudio encontró que estos sistemas aumentaban la ansiedad de los empleados por la pérdida de privacidad y la preocupación por las consecuencias si el sistema los identificaba como estresados o agotados.
Cuando la empatía artificial encuentra consecuencias reales
Estos hallazgos son importantes porque lo que está en juego es aún mayor en el lugar de trabajo que en el personal. Los sistemas de inteligencia artificial carecen del juicio matizado necesario para distinguir entre aceptar a alguien como persona y tolerar un comportamiento dañino. En un contexto organizacional, esto significa que la IA podría confirmar inadvertidamente prácticas poco éticas en el lugar de trabajo o no reconocer cuándo la intervención humana es crítica.
Y esa no es la única forma en que los sistemas de IA pueden hacer las cosas mal. El estudio encontró que las herramientas de inteligencia artificial de seguimiento de emociones tienen un impacto desproporcionado en los empleados de color, las personas trans y de género no binario y las personas que viven con enfermedades mentales. Los encuestados expresaron su profunda preocupación por cómo estas herramientas podrían malinterpretar el estado de ánimo, el tono o las líneas verbales de los empleados debido a los prejuicios étnicos, de género y de otro tipo que conllevan los sistemas de IA.
El estudio analizó cómo los empleados perciben la IA de detección de emociones en el lugar de trabajo.
También está el problema de la autenticidad. Las investigaciones muestran que cuando las personas saben que están hablando con un sistema de inteligencia artificial, califican respuestas empáticas idénticas como menos auténticas que cuando se atribuyen a humanos. Sin embargo, algunos empleados prefieren la IA precisamente porque saben que no es humana. La sensación de que estas herramientas protegen el anonimato y la libertad de las repercusiones sociales resulta atractiva para algunos, aunque sea sólo un sentimiento.
La tecnología también plantea interrogantes sobre lo que les sucede a los administradores humanos. Si los empleados prefieren constantemente la IA como apoyo emocional, ¿qué revela eso sobre el liderazgo organizacional? Algunas empresas están utilizando conocimientos de IA para capacitar a los gerentes en inteligencia emocional, convirtiendo la tecnología en un espejo que refleja dónde faltan las habilidades humanas.
El camino a seguir
La conversación sobre el apoyo emocional de la IA en el lugar de trabajo no se trata solo de tecnología: se trata de en qué tipo de empresas quiere trabajar la gente. A medida que estos sistemas se vuelven más ubicuos, creemos que es importante abordar preguntas fundamentales: ¿Deberían los empleadores priorizar la conexión humana auténtica sobre la disponibilidad constante? ¿Cómo se puede equilibrar la privacidad individual con los conocimientos organizacionales? ¿Pueden las organizaciones aprovechar las capacidades empáticas de la inteligencia artificial y al mismo tiempo preservar la confianza necesaria para relaciones significativas en el lugar de trabajo?
Las implementaciones más reflexivas reconocen que la IA no debería reemplazar la empatía humana, sino más bien crear las condiciones en las que pueda florecer. Cuando la IA maneja el trabajo emocional rutinario (ataques de ansiedad a las 3 a. m., controles de estrés previos a las reuniones, procesamiento de comentarios difíciles), los gerentes obtienen el ancho de banda para conexiones más profundas y auténticas con sus equipos.
Pero esto requiere una implementación cuidadosa. Las empresas que establecen límites éticos claros, fuertes protecciones de la privacidad y políticas explícitas sobre cómo se utilizan los datos emocionales tienen más probabilidades de evitar los obstáculos de estos sistemas, al igual que aquellas que reconocen cuándo el juicio humano y la presencia auténtica siguen siendo indispensables.
0 Comentarios