Falta de medicamentos, demoras en la atención o falta de cobertura son algunos de los problemas de la salud que la Inteligencia Artificial Generativa podría ayudar a solucionar. Sin embargo su aplicación sin la participación humana podría poner en peligro la seguridad del paciente. ¿Cuáles son las claves de su uso?
La crisis que atraviesa el sector de la salud es un reto que avanza simultáneamente con los esfuerzos gubernamentales por integrar la Inteligencia Artificial y así mejorar la calidad de los servicios.
Ya está demostrado que la IA Generativa (GenAI) puede ser un agente transformador en áreas clave como la experiencia del paciente, optimización de procesos administrativos e incluso el descubrimiento de fármacos. Así lo revela EPAM Systems Inc. en una reciente publicación.
Políticas regulatorias y actor humano en la IA para la salud
Llevar la IA a la salud en el país implica un compromiso tanto del sector privado como público. Con la llegada del 5G a Colombia y la urgente optimización de la infraestructura en el territorio, sumado a las regulaciones que ya se hacen —como la reciente aprobación de la política Nacional de Inteligencia Artificial anunciada por el gobierno— sientan las bases para soñar con una salud digital de vanguardia. No obstante, también se debe poner atención al factor humano en este despliegue.
«La aplicación de GenAI sin la participación humana podría poner en peligro la seguridad del paciente. Su uso como agente que apoya las tareas realizadas por humanos libera todo su potencial, a la vez que refuerza las medidas de seguridad», indica la publicación de EPAM.
En este mismo punto coincide la Organización Mundial de la Salud, que ha llamado a un uso ético y seguro de la IA para la salud. Si bien la OMS es partidaria del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos (LLM) en apoyo del personal de salud, los pacientes, la investigación y la ciencia, ha manifestado su inquietud sobre si las precauciones que normalmente se tienen ante una nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor de las evaluaciones.
«La adopción precipitada de sistemas no comprobados podría inducir a errores por parte del personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo», declaran.
Ante este panorama de dudas es que EPAM advierte que «hasta que la humanidad no tenga la certeza de que la IA no diagnosticará erróneamente un infarto ni alucinará (proporcionar información falsa) algo que parezca consejo médico, no deberíamos usar GenAI sin supervisión humana», y «aunque las pruebas demuestran que GenAI está mostrando una mejor comprensión y respuesta al contenido médico, aún es demasiado pronto para incorporar la tecnología a la atención médica sin una supervisión estricta».
Lo que se debe (y no se debe hacer) con GenAI en la atención médica
EPAM indica que antes de adoptar un enfoque en donde la GenAI intervenga en casos de atención médica, primero se debe definir el problema o desafío a solucionar y así evaluar si es que esta tecnología es la indicada. De serlo, el siguiente paso es comprender los riesgos y esfuerzos que conlleva su uso antes de determinar si la recompensa vale la pena. Y es que las ventajas son amplias, ya que existen áreas en las que su uso puede acelerar ciertas operaciones.
«El mejor enfoque es considerar GenAI no como un sustituto de los humanos, sino como una mejora que nos ayuda a realizar nuestras tareas con mayor rapidez y eficiencia», destaca la publicación. Algunos ejemplos de uso son:
- Resumen de textos para compartir únicamente con usuarios internos.
- Generación de contenido borrador para su posterior revisión y aprobación a través de los canales correspondientes.
- Apoyo de guardia a empleados internos para difundir las mejores prácticas y procedimientos operativos estándar, y mejorar la productividad de los trabajadores.
- Extracción de metadatos y mapeo relacional.
En todos estos casos la intervención humana es esencial para garantizar la validación y el control de los resultados, contemplando que saben que los resultados son generados por computadora.
Por otro lado, existen áreas de la GenAI que parecen atractivas; sin embargo, requieren de pruebas y validación más exhaustivas, por lo que EPAM recomienda tomar las siguientes precauciones:
- No utilizar grandes modelos lingüísticos (LLM) como interfaz de preguntas y respuestas para pacientes o proveedores de atención médica sin restricciones. En su lugar, utilice métodos de recuperación y generación aumentada (RAG) para mejorar la calidad de los datos.
- No emplear LLMs para generar contenido dinámicamente sin seguir procesos para revisarlo y aprobarlo primero.
- No compartir información personal con un LLM sin obtener su permiso. «Las leyes de privacidad de datos deben tenerse en cuenta al considerar qué conjuntos de datos exponemos a las aplicaciones de GenAI».