17,153 Visitantes
El potencial de la inteligencia artificial (IA) en el ámbito de la salud es innegable. Su aplicación permite incrementar la velocidad y la precisión del diagnóstico y la detección de enfermedades, optimizar la atención clínica, facilitar el desarrollo de estudios y medicamentos, reforzar la investigación, apoyar intervenciones de salud pública o contribuir al autocuidado de la salud, entre otras muchas aplicaciones.
Pero también conlleva desafíos y riesgos asociados a la ética y la sostenibilidad, como la recopilación y el uso de datos médicos con fines poco éticos; su seguridad; el riesgo de que se den sesgos, tanto en la obtención de datos (que pueden discriminar por género, origen, etc.), como en su clasificación o accesibilidad; o que se empleen con fines económicos, así como su repercusión medioambiental.
Las directrices europeas se dirigen a la necesidad de promover una IA fiable, ética y
robusta
En este sentido, el informe “Inteligencia artificial, ética y sociedad”, del Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC) incide sobre las dos preocupaciones básicas asociadas al uso de la IA. Por un lado, la relacionada con el comportamiento moral de las personas que la diseñan, la fabrican y la utilizan que, al fin y al cabo, tratan de “imitar” la inteligencia humana, lo que puede suscitar problemas como el engaño, el sesgo de datos o los errores cognitivos. Por otro, la que se relaciona con el comportamiento de los propios sistemas de IA, que debe regirse por unos principios éticos que les permitan tomar “decisiones morales”.
Además, añaden, la ética de la IA va más allá de una cuestión de diseño e implementación moral en los sistemas, y debe tener en cuenta también valores sociales y culturales que se esperaría, inciden, que estuviesen integrados en los diseños de IA. Estos valores se relacionan con la brecha digital que impide, por ejemplo, que personas de muchas partes del mundo participen en el diseño y el desarrollo de estas tecnologías, lo que puede repercutir, a la larga, en el éxito de su aplicación real.
Modelos de IA
La naturaleza social de cada territorio también condiciona el desarrollo de una IA ética. El informe de la OEIAC apunta la existencia de tres modelos que coinciden con las principales potencias de desarrollo tecnológico. Por un lado, el modelo “AI for control”, usado mayoritariamente en China, que emplea esta tecnología como herramienta de control social y de seguridad.
El segundo modelo, “IA for profit”, predominante en Estados Unidos, donde la ética queda en segundo plano, detrás del beneficio económico, al estar “orientado al desarrollo e implantación de sistemas de IA donde unas pocas empresas dominan la mayor parte del sector tecnológico”. Por último, el modelo “AI for society”, adoptado por la Unión Europea (UE), y que se opone y distancia de los dos anteriores anteponiendo la privacidad de los usuarios y los principios éticos al desarrollo tecnológico de la IA.
La adopción de una IA ética en la UE ha propiciado iniciativas y medidas destinadas a regular y crear marcos legislativos que amparen el desarrollo de esta tecnología. Esto ha permitido que Europa disponga, actualmente, de la legislación más avanzada en términos de datos personales y que promueva una política centrada en el derecho de los individuos a decidir de qué manera deben ser utilizados sus datos.
Principios de una IA confiable
En 2019, la Unión Europea publicó las “Directrices éticas para una IA fiable”, un documento destinado a promover una inteligencia artificial fiable basada en la necesidad de asegurar su naturaleza lícita (que cumpla todas las leyes y reglamentos aplicables), ética (que garantice el respeto de los principios y valores éticos) y robusta (desde una perspectiva técnica y teniendo en cuenta también su entorno social).
Requisitos que debe cumplir la IA para que sea confiable
Acción y supervisión humanas. Los sistemas de IA deben respaldar la autonomía y la toma de decisiones de las personas y promover sus derechos fundamentales
Solidez técnica y seguridad. Los sistemas de IA deben ser seguros, precisos, fiables y reproducibles, y contar con salvaguardis que posibiliten un plan de repliegue en el caso de que surjan problemas.
Privacidad. Los sistemas de IA deben garantizar la protección de la intimidad y de los datos y su calidad (libres de sesgos, imprecisiones y errores), un acceso legitimado y la privacidad.
Transparencia. Los datos y los procesos asociados a ellos deben documentarse para garantizar la trazabilidad y aumentar la transparencia. Además, debe asegurarse la explicabilidad técnica, que las decisiones que adopte un sistema de IA sean comprensibles y que se puedan rastrear. Asimismo, los seres humanos deben saber que interactúan con IA y sus limitaciones.
Diversidad, no discriminación y equidad. Es preciso garantizar la inclusión y la diversidad a lo largo de todo el ciclo de vida de los sistemas IA, tener en cuenta a todos los afectados y garantizar la participación en todo el proceso, además de asegurar la igualdad de acceso mediante procesos inclusivos.
Bienestar social y medioambiental. Los sistemas de IA deberían utilizarse en beneficio de todos los seres humanos, incluidas las generaciones futuras, garantizando que sean sostenibles y respetuosas con el medio ambiente y teniendo en cuenta su impacto social.
Rendición de cuentas. Se deben establecer mecanismos que permitan garantizar la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados, tanto antes de su implantación como después de esta. Más allá de las directrices europeas, otros organismos han publicado documentos orientativos en este sentido, como “Ética» y gobernanza de la inteligencia artificial en el ámbito de la salud de la Organización Mundial de la Salud (OMS) o la “Recomendación sobre la ética de la inteligencia artificial” de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) .