Tanto los LMM como Chat-GTP, tienen la capacidad de generar textos, así como otros contenidos predictivos a partir del procesamiento masivo de datos, y actualmente avanzan con una presencia en nuestras vidas en relación con los avances de la inteligencia artificial.
Debido a esta situación, precisa la OMS, es cada vez más posible su uso en entornos médicos, tales como el diagnóstico, en la investigación de síntomas y tratamientos, así como en el desarrollo de fármacos o las tareas de administración sanitaria.
Si bien, los LMM están empezando a ser usados para fines sanitarios determinados, la OMS advierte de que algunas de estas utilidades aún no han sido probadas, probadas ni se tiene certeza si van a ofrecer los beneficios esperados, por lo que es necesario establecer ciertas normas tanto para su integración, como su uso con fines médicos y de salud pública.
En este sentido, la guía documenta algunos de estos potenciales riesgos para los sistemas sanitarios, como el denominado “sesgo de automatización”, por el que es posible podrían producir declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando de este modo a las personas que hagan uso de dicha información para tomar decisiones en cuanto a su salud.
As the influence of emerging artificial intelligence (AI) technologies continues to grow, WHO is working to ensure the safety and effectiveness of AI for health.
These are just some of the global health highlights that offered hope in 2023. In 2024, we will take further steps… pic.twitter.com/S6RripQNrQ
— World Health Organization (WHO) (@WHO) December 29, 2023
SON VULNERABLES A CIBERATAQUES
Tanto los LMM, como las otras formas de IA, son vulnerables a presentar riesgos de ciberseguridad, con lo que podrían poner en peligro la información de los pacientes, a sí como la fiabilidad de estos algoritmos y la prestación de asistencia médica, señala la OMS.
Ante este riesgo, la OMS propone que para una aplicación segura y eficaz de los LMM en el sector sanitario es necesario una participación “vertical e integrada” de todas las partes interesadas, es decir, gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.
Así también, la OMS también recomienda a los gobiernos que promulguen leyes en las que se garantice que los LMM cumplan con los derechos humanos.
En este sentido, Alain Labrique, director del departamento de Salud Digital e Innovación de la OMS, precisó durante la presentación de la guía que “los gobiernos de todos los países deben liderar de forma cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de las tecnologías de IA, como los LMM”.
Excited for tomorrow's launch of the Guidance on Ethics and Governance of Large Multi-Modal Models for Health #GenerativeAI #LLMs Join us to learn more about this 4th guidance from @WHO, w/ global experts on #ArtificialInteligence. @JeremyFarrar https://t.co/SpxFKekwAq @DrTedros pic.twitter.com/NGv4mQ89ft
— Alain Labrique (@alabriqu) January 18, 2024
Por último, los desarrolladores de estas tecnologías deberán tener la capacidad de poder predecir y comprender posibles efectos secundarios de las IA, a sí como también diseñarlas para realizar tareas que estén bien definidas con la precisión y fiabilidad requeridas con el objetivo de mejorar la capacidad de los sistemas sanitarios y promover los intereses de los pacientes.
Con información de la Agencia EFE.