Novedades del derecho y las leyes argentinas para el ciudadano

La Inteligencia Artificial y el Derecho a la Emoción: ¿Deberíamos Preocuparnos por el Futuro de la Ira? Periodismo En Zapatillas

 La tecnología de SoftBank promete eliminar la ira de las llamadas de servicio al cliente, pero ¿qué implicaciones legales y éticas tiene esta innovación? Siempre es un derecho del cliente recibir atención adecuada y personalizada

robtoLa inteligencia artificial (IA) ha avanzado a pasos agigantados, y su aplicación en diversas áreas de nuestra vida cotidiana es evidente. Una de las últimas innovaciones proviene de SoftBank, que ha desarrollado un sistema de IA para proteger a los trabajadores de centros de atención telefónica de los abusos verbales de los clientes. Este sistema, denominado “Motor de Conversión de Voz para Cancelar Emociones” (EmotionCancelling Voice Conversion Engine), promete suavizar en tiempo real las voces de los clientes enfurecidos.

La Revolución de la IA en los Centros de Atención

El desarrollo de esta tecnología se llevó a cabo en un instituto de investigación de IA creado por SoftBank y la Universidad de Tokio. Aunque aún se encuentra en fase de investigación y desarrollo, la versión demo ya muestra resultados prometedores. La IA modifica la voz del cliente enojado para que el operador solo escuche una versión más suave y menos agresiva, manteniendo el vocabulario original pero eliminando el tono de ira.

Como implicaciones Legales y Éticas, la implementación de esta tecnología plantea importantes preguntas. ¿Es correcto eliminar la ira de una conversación sin el consentimiento del cliente? La rapidez con la que evoluciona la IA ya está poniendo a prueba cuestiones de propiedad de voz, y ahora SoftBank está explorando la propiedad de la emoción. La eliminación de la ira puede parecer una solución ideal para proteger a los trabajadores, pero también podría violar los derechos de los clientes a expresar sus emociones genuinas.

La legislación sobre el uso de la IA y la protección de datos personales es aún incipiente, pero existen algunas normas que podrían aplicarse. En la Unión Europea, el Reglamento General de Protección de Datos (GDPR) establece normas estrictas sobre el procesamiento de datos personales, que podrían incluir la modificación de la voz de un individuo. Además, las leyes de protección al consumidor podrían requerir transparencia y consentimiento explícito antes de aplicar tales tecnologías. Recordamos que siempre es un derecho recibir atención adecuada.

Casos Judiciales Relevantes
Un caso relevante en este contexto es el de Vance v. Google LLC, donde se discutió la recolección y uso de datos biométricos sin consentimiento. Aunque el caso se centró en datos faciales, establece un precedente sobre la necesidad de obtener consentimiento explícito para el uso de tecnologías avanzadas que afectan a los individuos.

Posibles Repercusiones
Además de las cuestiones legales, la tecnología de cancelación de emociones podría tener repercusiones psicológicas y sociales. La ira, aunque incómoda, es una emoción humana legítima y suprimirla podría llevar a un aumento de la frustración y desconfianza hacia las empresas. Los clientes podrían sentirse manipulados si descubren que su emoción ha sido alterada sin su conocimiento, lo que podría dañar la relación con la empresa.

Algunos casos de call centers

Además de las demandas contra la empresa por parte de los trabajadores que sufren stress laboral, hay algunos casos de clientes. Un dato curioso es que esta tecnología fue inspirada por una película sobre el aumento de la agresividad de los clientes en Japón, un fenómeno atribuido a la combinación de una población envejecida y la escasez de mano de obra. Esta anécdota destaca cómo las observaciones sociales pueden conducir a innovaciones tecnológicas, pero también subraya la necesidad de abordar cuidadosamente las implicaciones de dichas innovaciones.

En una ocasión, un operador de un call center en Estados Unidos recibió una llamada de un cliente extremadamente furioso debido a problemas con su servicio de internet. El cliente gritaba y amenazaba con cancelar su suscripción.

El operador, utilizando técnicas de desescalada emocional, logró calmar al cliente simplemente compartiendo una anécdota personal sobre un día difícil que tuvo recientemente. Al final de la llamada, el cliente no solo decidió mantener su suscripción, sino que también envió una carta de agradecimiento al operador y a su supervisor, destacando cómo una conexión humana genuina pudo cambiar completamente su experiencia.

 

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.