La inteligencia artificial (IA) dejó de ser una promesa para convertirse en una realidad cotidiana en el sector sanitario. Sus herramientas, desde el diagnóstico por imagen y la predicción de enfermedades hasta los asistentes virtuales, están diseñadas para aligerar la carga de trabajo y las presiones económicas de los sistemas de salud.
El nuevo triángulo
La relación médico-paciente evolucionó hacia una relación triádica: médico-IA-paciente. En este nuevo ecosistema, el médico interactúa con un “tercero silencioso”: el algoritmo. La IA funciona como un consultor avanzado que proporciona predicciones y recomendaciones basadas en el análisis de ingentes cantidades de datos que ningún cerebro humano podría procesar.
Esta tríada tiene un potencial enorme. Por un lado, la precisión de los datos de la IA permite al médico contextualizar la enfermedad con mayor exactitud, reforzando un cuidado más personalizado. Por otra parte, al disponer potencialmente de más tiempo, el médico podría enfocarse en las preferencias, en el contexto social y en los valores del paciente, fortaleciendo el consentimiento informado y la toma de decisiones compartida.
No obstante, existe un riesgo: la deshumanización. Si la IA sólo busca maximizar la eficiencia y reducir costos, el paciente puede ser reducido a una mera estadística, perdiendo su narrativa y singularidad. Esto podría llevar a un paternalismo algorítmico, donde la decisión médica parece ser dictada por la máquina y no por el juicio humano guiado por la ética y la empatía. Es vital que la IA actúe como una herramienta de apoyo y no como un sustituto del juicio clínico y humano.
La crisis de confianza y la “caja negra”
La confianza mutua es el cimiento de la relación médico-paciente. La intervención de la IA introduce un desafío de transparencia. Muchos sistemas avanzados operan como una “caja negra”, donde sus complejos modelos matemáticos dificultan comprender cómo llegaron a una recomendación específica. Esta opacidad algorítmica genera una crisis de confianza que se manifiesta de varias maneras. En primer lugar, hace más difusa la responsabilidad: si un diagnóstico resulta erróneo, surge la pregunta: ¿quién es el responsable final? ¿Es el médico que aceptó la sugerencia, el desarrollador del algoritmo o la propia máquina? Esta ambigüedad en la responsabilidad profesional genera inseguridad en el paciente y presión en el médico.
La IA también puede introducir sesgos y disparidades ya que sólo es tan objetiva como los datos con que fue entrenada. Si estos datos reflejan sesgos históricos (por ejemplo, al incluir menos información sobre ciertas poblaciones étnicas o socioeconómicas), el algoritmo puede amplificarlos, llevando a tratamientos y diagnósticos desiguales para dichos grupos.
Tanto el paciente como el médico necesitan entender por qué se tomó una decisión. Sin esa trazabilidad, el paciente pierde el control sobre su atención sanitaria.
Competencias del futuro: más humanos que nunca
Para prosperar en este entorno, la respuesta de los profesionales de la salud no es tecnológica, sino profundamente humana. En este nuevo paradigma, el médico se convierte en un traductor. Debe comunicar la precisión y el lenguaje frío del algoritmo al paciente de forma comprensible y empática, integrando esa información con la narrativa, los miedos y los valores de la persona. Es que irónicamente, en la era de la IA, las virtudes más humanas se vuelven las más valiosas. La empatía, la compasión y la capacidad de escucha profunda son herramientas que la IA no puede replicar. Estas son las competencias esenciales para que el paciente se sienta visto y valorado como una persona, no sólo como un caso de estudio estadístico.
La meta no es que la IA reemplace al médico, sino que se integre con la inteligencia humana para construir una medicina más precisa y profundamente más humana.
El desafío recae en establecer estándares robustos para esta nueva relación de curación triádica. Como pacientes, nuestro papel es ser conscientes y exigentes, asegurando que la IA se utilice intencionalmente para preservar y fortalecer los valores intrínsecamente humanos de la medicina.
Columna escrita por Fabián Vítolo, director de Relaciones Institucionales y Servicios Médicos de Noble Seguros, y publicada en la revista Todo Riesgo. Su e-mail es fabian.vitolo@nobleseguros.com.
Seguinos en las redes:
Facebook: https://bit.ly/TodoRiesgoFacebook
Instagram: https://bit.ly/3OOsqMo
LinkedIn: https://bit.ly/TodoRiesgoLinkedIn
X: https://bit.ly/TodoRiesgoTwitter
YouTube: https://bit.ly/TodoRiesgoYouTube








