El informe que recientemente dio a conocer la OMS promueve incluir la ética y los derechos humanos en la base del diseño, desarrollo e implementación de las nuevas tecnologías que utilizan IA. Recomendaciones y principios básicos para garantizar que la IA funcione en beneficio público.
Con una cita del célebre Stephen Hawking, que recuerda las muchas oportunidades y desafíos que las nuevas tecnologías tienen para el sector de la salud, comienza el informe de 150 páginas que la Organización Mundial de la Salud (OMS, por sus siglas en inglés) publicó recientemente sobre la ética y la gobernanza de la Inteligencia Artificial en la Salud.
El informe es producto de dos años de deliberaciones entre 20 expertos en ética, tecnología digital, derecho, derechos humanos y referentes de distintos ministerios de salud. La conclusión es que, si bien las nuevas tecnologías que utilizan Inteligencia Artificial son muy prometedoras para mejorar el diagnóstico, el tratamiento, la investigación en salud y el desarrollo de fármacos, así como para apoyar a los gobiernos en el desempeño de funciones de salud pública, incluida la vigilancia y la respuesta a situaciones críticas como la actual pandemia, tales tecnologías deben tener la ética y los derechos humanos implícitos en el corazón de su diseño, desarrollo e implementación.
Y es que como muchas empresas de tecnología están invirtiendo en la recopilación de datos de salud, el desarrollo de algoritmos y la implementación de IA, la proliferación de la IA podría conducir a la prestación de servicios de atención médica en contextos no regulados y por parte de proveedores no regulados, lo que podría crear desafíos para la supervisión gubernamental de la atención médica. «Por lo tanto, se deben desarrollar mecanismos apropiados de supervisión regulatoria para que el sector privado rinda cuentas y responda a quienes pueden beneficiarse de los productos y servicios de IA, al tiempo que se garantice las operaciones del sector privado sean transparentes» explica la Dra. Soumya Swaminathan, una de las líderes de la investigación, en la introducción del informe.
Además, continúa la experta, «Si se emplea con prudencia, la IA tiene el potencial de capacitar a los pacientes y las comunidades para que asuman el control de su propia atención médica y comprendan mejor sus necesidades cambiantes. Pero si no tomamos las medidas adecuadas, la IA también podría llevar a situaciones en las que las decisiones que deben tomar los proveedores y los pacientes se transfieran a las máquinas, lo que socavaría la autonomía humana». Y en el contexto de la IA para la salud, sin duda alguna la autonomía significa que los seres humanos deben mantener el control total de los sistemas de atención de la salud y las decisiones médicas.
Entre estos y otros desafíos y riesgos éticos del uso de la inteligencia artificial en la salud que se identifican en el informe (también menciona, por ejemplo, que deben superarse los sesgos existentes en los servicios y sistemas de atención médica basados en la raza, la etnia, la edad y el género, que están codificados en los datos utilizados para entrenar algoritmos, así como la brecha digital preexistente al uso de las TICs) el extenso reporte define seis principios básicos para promover el uso ético de la IA en la salud y garantizar que la misma funcione en beneficio público de todos los países:
(1)Proteger la autonomía; (2) Promover el bienestar humano, la seguridad humana y el interés público; (3) Asegurar transparencia, explicabilidad e inteligibilidad; (4) Fomentar la responsabilidad y la rendición de cuentas; (5) Garantizar la inclusión y la equidad; (6) Promover una IA que sea receptiva y sostenible.
Fuente: https://apps.who.int/iris/bitstream/handle/10665/341996/9789240029200-eng.pdf