19 de abril de 2024

¿Robots más empáticos que los humanos?

Los humanos ocupados y estresados no siempre son buenos expresando empatía. Ahora, los científicos de la computación están entrenando a la inteligencia artificial para ser empática en nuestro lugar.

Robots Empáticos

Los modelos de lenguaje grandes impulsados por IA, entrenados en grandes cantidades de conversaciones de voz, texto y video, son lo suficientemente inteligentes como para detectar y simular emociones como la empatía, a veces incluso mejor que los humanos, argumentan algunos. Nuevas capacidades prometen mejorar las interacciones en el servicio al cliente, recursos humanos, salud mental y otros campos, afirman los expertos en tecnología.

También están planteando preguntas morales y éticas sobre si las máquinas, que carecen de remordimientos y un sentido de responsabilidad, deberían ser permitidas para interpretar y evaluar las emociones humanas.

Empresas como la gigante de las telecomunicaciones Cox Communications y el gigante de la telemercadeo Teleperformance utilizan la IA para medir los niveles de empatía de los agentes de centros de llamadas y utilizan las puntuaciones para revisiones de desempeño. Los médicos y terapeutas utilizan la IA generativa para redactar correspondencia empática con los pacientes. Por ejemplo, Lyssn.io, una plataforma de IA para la formación y evaluación de terapeutas, está probando un modelo GPT especializado que sugiere respuestas de texto para dar a los pacientes.

Cuando una mujer revela ansiedad después de una semana difícil en el trabajo, el chatbot de Lyssn ofrece tres opciones que el terapeuta podría enviar por mensaje de texto:

  • «Parece que el trabajo realmente te ha afectado esta semana»
  • «Lamento escuchar eso, ¿cómo has estado manejando tu estrés y ansiedad esta semana?»
  • «Gracias por compartir. ¿Cuáles son algunas formas en las que has gestionado tu ansiedad en el pasado?»

Incluso una persona que llama desde su banco o proveedor de Internet puede estar leyendo un guión generado por un asistente alimentado por IA. La próxima vez que reciba una llamada telefónica, un mensaje de texto o un correo electrónico, es posible que no tenga forma de saber si un humano o una máquina está respondiendo.

Los beneficios de la nueva tecnología podrían ser transformadores, afirman los funcionarios de la compañía. En el servicio al cliente, los bots entrenados para proporcionar sugerencias reflexivas podrían elevar las interacciones con los consumidores al instante, aumentando las ventas y la satisfacción del cliente, dicen los defensores. Los bots terapeutas podrían ayudar a aliviar la grave escasez de profesionales de la salud mental y asistir a pacientes que no tienen acceso a otro tipo de atención.

«La IA puede incluso ser mejor que los humanos en ayudarnos con el aprendizaje socioemocional porque podemos alimentarla con el conocimiento de los mejores psicólogos del mundo para entrenar a las personas»

Grin Lord, un psicólogo clínico y CEO de mpathic.ai, una empresa de análisis de conversaciones en Bellevue, Washington.

Algunos científicos sociales se preguntan si es ético utilizar la IA que no tiene experiencia en el sufrimiento humano para interpretar estados emocionales. La empatía artificial utilizada en un entorno clínico podría devaluar la expectativa de que las personas en angustia merecen atención humana genuina. Y si los humanos delegan la elaboración de palabras amables a la IA, ¿atrofiarán nuestras propias habilidades empáticas?

La IA puede ser capaz de «empatía cognitiva», o la capacidad de reconocer y responder a un ser humano basado en los datos en los que fue entrenada, dice Jodi Halpern, profesora de bioética en la Universidad de California, Berkeley, y una autoridad en empatía y tecnología. Pero eso es diferente de la «empatía emocional», o la capacidad de interiorizar el dolor, la esperanza y el sufrimiento de otra persona, y sentir una preocupación genuina.

«La empatía que es más clínicamente valiosa requiere que el médico experimente algo cuando escucha a un paciente»

Jodi Halpern, profesora de bioética en la Universidad de California, Berkeley, y una autoridad en empatía y tecnología.

He aquí un vistazo a dónde se dirigen las aplicaciones de la empatía artificial.

Salud mental

La IA entrenada en métodos terapéuticos estructurados como la entrevista motivacional y la terapia cognitivo-conductual podría ayudar con todo, desde dejar de fumar y problemas de consumo de sustancias hasta trastornos alimentarios, ansiedad y depresión, argumentan los defensores. «Hemos tenido autoayuda, terapia cognitivo-conductual en línea, videos y hojas de trabajo interactivas sin terapeutas humanos durante mucho tiempo. Sabemos que la tecnología puede ser útil. Este es el siguiente paso lógico», dice David Atkins, un psicólogo clínico que es el CEO y cofundador de Lyssn.

El uso de la IA para sugerir y reescribir las respuestas de los terapeutas a los pacientes puede aumentar las calificaciones de empatía, según estudios. En un experimento realizado en la plataforma de apoyo entre pares en línea TalkLife, un bot entrenado en IA llamado Hailey sugirió cómo 300 personal de apoyo voluntario podrían hacer que sus consejos a los usuarios fueran más empáticos.

Por ejemplo, cuando un apoyante escribió: «Entiendo cómo te sientes», Hailey sugirió reemplazarlo por: «Si eso me hubiera pasado a mí, me sentiría realmente aislado». Cuando un apoyante escribió: «No te preocupes, estoy aquí para ti», Hailey sugirió reemplazarlo por: «Debe ser una lucha real. ¿Has intentado hablar con tu jefe?»

La respuesta humana y de IA juntas llevaron a una respuesta empática un 19,6% más alta, encontró el estudio, en comparación con las respuestas solo de humanos. «La IA puede mejorar la empatía cuando se combina con un humano», dice Tim Althoff, profesor asistente de informática en la Universidad de Washington, quien fue autor del estudio junto con Atkins y otros.

Los expertos en salud mental dicen que la terapia con IA necesitará regulación gubernamental y pautas profesionales para exigir transparencia y proteger a los usuarios. A principios de este año, un servicio de terapia en línea enfureció a los usuarios cuando no reveló que estaba utilizando GPT-3 para generar consejos. Separadamente, un bot utilizado por la línea de información de la Asociación Nacional de Trastornos de la Alimentación fue suspendido después de hacer sugerencias inapropiadas a los usuarios.

En lugar de proporcionar simplemente información, el bot dio consejos terapéuticos específicos a algunos usuarios, como reducir las calorías y establecer metas de pérdida de peso semanales, lo que los expertos dijeron que podría ser perjudicial para quienes padecen trastornos como la anorexia.

Servicio al cliente y ventas

Las personas que son consideradas con los sentimientos de los demás tienen interacciones más exitosas en los negocios, desde la venta de bienes raíces hasta el asesoramiento de inversiones, han mostrado investigaciones durante mucho tiempo.

Uniphore, una plataforma de IA empresarial con sede en Palo Alto, California, vende una herramienta de reuniones virtuales basada en IA que rastrea las señales emocionales de los participantes en una llamada para ayudar al anfitrión a analizar en tiempo real quién está y quién no está comprometido y qué material está resonando.

La tecnología mide las señales de emociones como la ira, la felicidad y la confusión mediante el análisis de expresiones faciales, tono vocal y palabras. Un panel en la pantalla muestra las puntuaciones de sentimiento y participación de los participantes, y proporciona indicaciones sobre si el presentador debe reducir la velocidad, mostrar más empatía o hacer otros cambios.

Algunos críticos han cuestionado si las personas están entregando inconscientemente su privacidad cuando su comportamiento es registrado por las empresas. Umesh Sachdev, CEO y cofundador de Uniphore, dice que las empresas deben revelar y pedir permiso a los participantes antes de utilizar la tecnología.

En el futuro, tal tecnología podría aplicarse en la educación, cuando los instructores necesiten hacer un seguimiento de docenas de estudiantes en aulas virtuales, dice Sachdev. También podría utilizarse en el entretenimiento, para pruebas de audiencia virtual de programas de televisión y películas.

Recursos humanos

Los expertos en recursos humanos dicen que la IA que califica la empatía durante las conversaciones se utilizará cada vez más en revisiones de desempeño y contrataciones.

Humanly.io, una empresa de reclutamiento y análisis con clientes como Microsoft, Moss Adams y Worldwide Flight Services, evalúa a los reclutadores humanos y chatbots por la empatía que muestran durante las entrevistas de trabajo. «Una mayor empatía y escucha activa en la conversación se correlaciona con tasas de aceptación de ofertas más altas en trabajos y ventas», dice Prem Kumar, CEO y cofundador de Humanly.

En una gran empresa de tecnología, el análisis de conversación de Humanly identificó que los reclutadores carecían de empatía y escucha activa al entrevistar a mujeres. Las tasas de aceptación de trabajos por parte de las mujeres aumentaron un 8% después de que el modelo identificara el problema y los reclutadores recibieran retroalimentación, dijo Kumar.

Accolade, una empresa de servicios de salud fuera de Filadelfia, solía tener supervisores escuchando las conversaciones grabadas de sus 1,200 asistentes de salud con clientes que llamaban sobre problemas médicos delicados. Pero solo tenían tiempo para revisar una o dos llamadas por empleado por semana.

«Una de las cosas más importantes que evaluamos en nuestros agentes es si muestran empatía durante una llamada. La empatía es fundamental para nuestra identidad, pero es una de las cosas más difíciles y complicadas de medir y calibrar».

Kristen Bruzek, vicepresidenta senior de operaciones de Accolade.

Accolade ahora utiliza un modelo de IA de aprendizaje automático de Observe.AI entrenado para detectar la presencia de empatía en las llamadas de los agentes. El modelo de empatía preprogramado de Observe.AI reconocía frases como «Lamento escuchar eso», pero no reflejaba la diversidad de expresiones que las personas usan según la edad, la raza y la región. Por lo tanto, los ingenieros de Accolade están entrenando el algoritmo para reconocer una gama más amplia de expresiones empáticas, insertando frases en el modelo informático que los empleados podrían usar para expresar su preocupación, como: «Debe ser realmente aterrador», y «No puedo imaginar cómo se siente eso», y «Debe ser muy difícil».

Por ahora, el modelo es aproximadamente un 70% preciso en comparación con una evaluación humana, estima Accolade. Aun así, ya ha mostrado eficiencias importantes. Observe.AI puede calificar 10,000 interacciones por día entre clientes y empleados, dice la Sra. Bruzek, en comparación con las 100 a 200 que los humanos calificaban en el pasado.

A medida que las revisiones de desempeño automatizadas también se vuelvan más comunes, dicen algunos académicos, los humanos deberán comprender las capacidades y limitaciones de lo que la IA puede medir.

«¿Qué sucede si las máquinas no son buenas midiendo aspectos de la empatía que los humanos consideran importantes, como la experiencia de la enfermedad, el dolor, el amor y la pérdida?», pregunta Sherry Turkle, profesora de estudios sociales de la ciencia y la tecnología en el Instituto de Tecnología de Massachusetts. «Lo que las máquinas pueden medir se convertirá en la definición de lo que es la empatía».


Vía WJS.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *