Tecnología

La OMS pide uso ético de la inteligencia artificial en la salud

Con información de  IPS Venezuela

La Organización Mundial de la Salud (OMS) pidió un uso ético de las herramientas de inteligencia artificial, al advertir este martes 16 que la adopción precipitada de sistemas no probados en el campo de la salud puede dar lugar a errores por parte de los trabajadores sanitarios y causar daños a los pacientes.

“Es imperativo que se examinen cuidadosamente los riesgos cuando se usen modelos de lenguaje generados por la inteligencia artificial para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones”, señaló la agencia sanitaria de las Naciones Unidas en un comunicado.

Asimismo, es imperativo el rigor cuando se utilicen esas nuevas herramientas para mejorar la capacidad de diagnóstico en entornos de escasos recursos, a fin de “proteger la salud de las personas y reducir la inequidad”, recalcó la OMS.

Para preservar la salud pública y proteger y promover el bienestar, la seguridad y la autonomía humanas, los modelos de lenguaje generados por la inteligencia artificial deben ser examinados exhaustivamente antes de su aplicación, y vigilados una vez que se pongan en práctica.

De otra manera, añadió el organismo, sus consecuencias negativas erosionarán la confianza en la inteligencia artificial y socavarán los posibles beneficios y usos a largo plazo de esas tecnologías.

Los modelos de lenguaje generados por la inteligencia artificial incluyen plataformas de rápida expansión como ChatGPT, Bard y Bert, entre otras que imitan la comprensión, el procesamiento y la producción de la comunicación humana.

La OMS reconoció las ventajas que supone el uso adecuado de la inteligencia artificial para apoyar a los profesionales de la salud, los pacientes, los investigadores y científicos, pero se preocupa por la falta de cautela que caracteriza su uso y que no es comparable a la que se ejerce con otras nuevas tecnologías.

Entre los principales riesgos en el uso de esas nuevas herramientas, la OMS advirtió que los datos utilizados para las bases que nutren la inteligencia artificial pueden estar sesgados, y generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión.

Los modelos de lenguaje generados por inteligencia artificial producen respuestas que pueden parecer autorizadas y plausibles para un usuario final, pero pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud.

Esos modelos pueden recibir información sobre datos cuyo uso no haya sido consentido previamente y, cuando generan respuestas, pueden no proteger datos confidenciales, como los que proporciona un usuario a una aplicación informática.

También se pueden utilizar indebidamente para generar y difundir desinformación sobre la salud, en forma de contenido de texto, audio o vídeo difícil de diferenciar del contenido confiable.

La OMS insistió en que el proceso de análisis de las herramientas de inteligencia artificial debe contemplar transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.

Recomendó que los responsables de elaborar las políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los modelos de lenguaje generados por inteligencia artificial.

También propuso que se mida la evidencia clara del beneficio antes del uso generalizado de esas herramientas en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *