ChatGPT o Google Bard – La OMS pide una IA segura y ética

Las plataformas ChatGPT, Google Bard, Bert, y muchas otras, imitan la comprensión, el procesamiento y la producción de la comunicación humana.

[Ciencia – Tecnología]

 

La Organización Mundial de la Salud (OMS) pide que los desarrolladores vayan con extrema precaución cuando utilicen herramientas de Inteligencia Artificial (IA) basadas en modelos generativos de lenguaje LLM (Large Language Models), como ChatGPT o Google Bard.

 

Plataformas que imitan la comprensión y comunicación humana

Los LLM incluyen algunas de las plataformas de más rápida expansión, como ChatGPT, Bard, Bert, y muchas otras que imitan la comprensión, el procesamiento y la producción de la comunicación humana.

Su difusión pública meteórica y su creciente uso experimental con fines relacionados con la salud están generando un entusiasmo significativo en torno al potencial para apoyar las necesidades de salud de las personas.

Es imperativo que se examinen cuidadosamente los riesgos cuando se utilizan LLM para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la desigualdad.

 

Ejercer la cautela es importante

Si bien la OMS está entusiasmada con el uso apropiado de las tecnologías, incluidos los LLM, para apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos, existe la preocupación de que la cautela que normalmente se ejercería para cualquier tecnología nueva no se está ejerciendo de manera coherente con los LLM.

Esto incluye la adhesión generalizada a los valores clave de transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.

La adopción precipitada de sistemas no probados podría generar errores por parte de los trabajadores de la salud, causar daño a los pacientes, erosionar la confianza en la IA y, por lo tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.

 

Supervisión rigurosa

Las preocupaciones que exigen una supervisión rigurosa necesaria para que las tecnologías se utilicen de manera segura, eficaz y ética incluyen:

Los datos utilizados para entrenar la IA pueden estar sesgados, generando información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión;

Los LLM generan respuestas que pueden parecer autorizadas y plausibles para un usuario final; sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente para las respuestas relacionadas con la salud;

Los LLM pueden recibir capacitación sobre datos para los cuales es posible que no se haya proporcionado previamente el consentimiento para dicho uso, y los LLM pueden no proteger los datos confidenciales (incluidos los datos de salud) que un usuario proporciona a una aplicación para generar una respuesta;

Los LLM pueden usarse indebidamente para generar y difundir desinformación altamente convincente en forma de contenido de texto, audio o video que es difícil para el público diferenciar del contenido de salud confiable; y

Si bien está comprometida con el aprovechamiento de las nuevas tecnologías, incluida la IA y la salud digital para mejorar la salud humana, la OMS recomienda que los responsables de dictar políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los LLM.

 

La OMS y la importancia de aplicar principios éticos

La Organización Mundial de la Salud propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y los responsables de dictar políticas.

La OMS reitera la importancia de aplicar los principios éticos y la gobernanza adecuada, tal como se enumeran en la guía de la OMS sobre la ética y la gobernanza de la IA al diseñar, desarrollar y desplegarla para la salud. 

 Los 6 principios básicos identificados por la OMS son:

(1) proteger la autonomía;

(2) promover el bienestar humano, la seguridad humana y el interés público;

(3) garantizar la transparencia, la explicabilidad y la inteligibilidad;

(4) fomentar la responsabilidad y la rendición de cuentas;

(5) garantizar la inclusión y la equidad;

(6) promover una IA que responda y sea sostenible.

 

 

Ver el texto original: https://www.who.int/news/item/16-05-2023-who-calls-for-safe-and-ethical-ai-for-health 

 

Origen de la imagen
filmsperu.pe

Ver:

> Premios L’Oréal-UNESCO 2023 For Women in Science   
> Katherine Johnson – Matemática clave para la llegada a la Luna  
> ‘Cerebro(s)’ – Exposición – Conciencia, pensamiento, lenguaje…  
> Federico Mayor Zaragoza – Defensor de la paz mundial  
> Albert Einstein a 100 años de su visita a Barcelona  
> ‘Long Live My Happy Head’ – El cáncer en el Brain Film Fest 2023  
> Tóxicos ambientales – Más infecciones respiratorias y Covid  
> He Jiankui – Usó la técnica CRISPR para crear bebés modificados genéticamente 
> Envejecimiento y cáncer – Cuatro determinantes comunes   
> La astrofísica Licia Verde referente mundial en la energía oscura  
> Robot con forma de perro – Guía para personas dependientes