DERIG Área de Discapacidad: "Avances tecnológicos e inteligencia artificial y el impacto en las personas con discapacidad (PcD)"


Indudablemente el rápido auge de la inteligencia artificial (IA) ha generado nuevas oportunidades a nivel global: desde facilitar los diagnósticos de salud hasta posibilitar las conexiones humanas a través de las redes sociales, así como aumentar la eficiencia laboral mediante la automatización de tareas.

Sin embargo, estos rápidos cambios también plantean profundos dilemas éticos, que surgen del potencial que tienen los sistemas basados en IA para reproducir prejuicios, contribuir a la degradación del clima y amenazar los derechos humanos, entre otros. Estos riesgos asociados a la IA se suman a las desigualdades ya existentes, perjudicando aún más a grupos históricamente marginados. (1)

Respecto a esto la Organización Mundial de la Salud (OMS) pide precaución en el uso de herramientas que se sirven de grandes modelos lingüísticos generados por inteligencia artificial (IA) con el fin de proteger y promover la seguridad, autonomía y bienestar de las personas, y preservar la salud pública.

Entre dichas herramientas se cuentan algunas de las plataformas más pujantes, como ChatGPT, Bard, Bert y muchas otras que imitan el razonamiento, los procesos y la producción de la comunicación humana. Su meteórica difusión pública y creciente uso experimental en el ámbito de la salud está generando un considerable entusiasmo en torno a su potencial para atender necesidades de salud.

Es imperativo examinar cuidadosamente los riesgos que conlleva utilizar dichos modelos lingüísticos en la mejora del acceso a la información de salud, como herramienta de apoyo a la toma de decisiones, o incluso para fomentar la capacidad de diagnóstico en entornos de escasos recursos con el fin de proteger la salud de las personas y reducir la inequidad.

Si bien la OMS es partidaria entusiasta del uso adecuado de tecnologías, incluidos los grandes modelos lingüísticos, en apoyo del personal de salud, los pacientes, la investigación y la ciencia, ha manifestado su inquietud por si las precauciones que normalmente se tienen ante toda nueva tecnología, no se aplican sistemáticamente con los grandes modelos lingüísticos. Ello incluye la observancia generalizada de valores fundamentales como la transparencia, la inclusión, la colaboración pública, la supervisión de expertos y el rigor en las evaluaciones.

La adopción precipitada de sistemas no comprobados podría inducir a errores por el personal de salud, causar daños a los pacientes, erosionar la confianza en la IA y, por tanto, socavar (o retrasar) los posibles beneficios y usos a largo plazo de tales tecnologías en todo el mundo.

A continuación se indican algunas de las inquietudes que un examen riguroso, necesario para que las tecnologías se utilicen de manera segura, eficaz y ética.
  • Los datos utilizados para entrenar la IA pueden estar sesgados, lo que generaría información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusividad.
  • Los grandes modelos lingüísticos generan respuestas que pueden parecen autorizadas y plausibles para el usuario final; pero cabe la posibilidad de que las respuestas sean totalmente incorrectas o que contengan errores graves, especialmente las vinculadas con la salud.
  • Puede que tales modelos se utilicen indebidamente para generar y difundir desinformación  muy convincente en forma de contenido textual o audiovisual que el público no puede distinguir fácilmente de contenidos de salud fidedignos.
  • Si bien la OMS tiene el compromiso de aprovechar las nuevas tecnologías, como la IA y la salud digital, para mejorar la salud humana, recomienda a las instancias normativas que garanticen la seguridad y protección del paciente, a la par que las empresas tecnológicas se afanan por comercializar los grandes modelos lingüísticos.
La OMS propone tener en cuenta tales inquietudes y evaluar las pruebas que demuestren inequívocamente los beneficios de estas tecnologías antes de que pasen a utilizarse de forma generalizada en los servicios ordinarios de atención de salud y en la medicina, ya sea por particulares, proveedores de atención o administradores de sistemas de salud o instancias normativas.

La OMS reitera la importancia de aplicar los principios éticos y la gobernanza adecuada, enumerados en sus orientaciones sobre Ética y gobernanza de la inteligencia artificial en el ámbito de la salud (en inglés), que son fundamentales en la formulación, desarrollo y despliegue de la IA en el ámbito de la salud.

Los seis principios fundamentales establecidos por la OMS son: 1) proteger la autonomía; 2) promover el bienestar y la seguridad de las personas y el interés público; 3) garantizar la transparencia, la claridad y la inteligibilidad; 4) promover la responsabilidad y la rendición de cuentas; 5) garantizar la inclusividad y la equidad; 6) promover una IA con capacidad de respuesta y sostenible. (2)

El planteo que se abre paso nos deja un gran debate ético por delante. En el ámbito de la discapacidad se generan oportunidades indiscutibles por avances tecnológicos aplicados a la medicina y la investigación en salud, así como la aplicación de inteligencia artificial en tratamientos,  rehabilitación y producción de herramientas para la vida diaria. Utilizado criteriosamente implicaría impactos favorables directos en la calidad de vida de las personas.

Para profundizar en situaciones específicas los remitimos a continuación a 2 artículos que ponen en evidencia la importancia de estos avances tecnológicos en general y en IA de modo particular.

Destacan situaciones diversas; algunas pueden remarcar más las diferencias de oportunidades y otras muestran posibilidades maravillosas de increíbles mejoras en la calidad de vida y que apuntan a garantizar la dignidad de las PcD.

Autora: Lic. Pamela Fornés