Hoy resulta de interés la eventual aplicación de los posibles de la IA en el campo de las relaciones de ayuda. Un mundo que, en principio, a algunos les puede asustar, pero que puede ser de sumo interés en no pocos apoyos, tomada como instrumento para la gestión, para la mejora de la intervención del terapeuta, para la búsqueda personalizada de alternativas, etc.
Ahora bien, teniendo en cuenta que la empatía cognitiva también la tiene el psicópata, y se aprovecha de ella para beneficio propio y daño a la víctima sin resonancia emocional ni conducta ética, parece oportuno acoger la propuesta de quienes reclaman hablar de empatía moral o empatía ética (Joan Halifax) o, sencillamente genuina compasión, aunque bien sabemos que la compasión presupone la empatía, pero no se agota en ella.
Algunas opiniones sobre el uso de la IA en counselling llegan a decir que ninguna aplicación de IA es capaz de sentir de verdad empatía, puesto que la empatía requiere la capacidad de escuchar, de reconocer la irreductible singularidad del otro, de acoger su alteridad contextual, de comprender el significado de sus experiencias… La empatía simulada por la IA no es empatía auténtica, aunque pueda tener apariencia de empatía cognitiva.
En la IA no se entabla un vínculo humano de compromiso bidireccional a la búsqueda del bien. La IA podría ser muy competente en empatía cognitiva en cuanto capaz de captar emociones de forma precisa a través del procesamiento de la información recibida. En este sentido, la dificultad planteada por algunos es una objeción que pone sobre la mesa los riesgos en la atención al paciente, que deben evitarse por razones morales, dado que, sin enfoque ético, la empatía puede ser utilizada o generar involuntariamente efectos negativos. Donde no hay compromiso personal por el bien del otro, no hay genuino vínculo terapéutico, base donde se consolida la confianza y donde el ayudado apoya la narrativa de su sufriculum a la búsqueda del consuelo o de la luz para afrontar sus problemas o tomar sus decisiones.
VOLVER