La Guía Ética de Inteligencia Artificial (IA) del Gobierno colombiano establece salvaguardas específicas para el uso de IA en salud pública, un sector considerado de alto riesgo por su impacto directo en la vida y los derechos de las personas
El uso de la IA en la salud pública abre oportunidades para mejorar diagnósticos, optimizar la asignación de recursos y fortalecer la atención sanitaria. Sin embargo, también plantea riesgos significativos si no se implementa bajo criterios éticos claros. Consciente de este desafío, Colombia incluyó consideraciones específicas para el sector salud en su Guía Ética para la Implementación, Desarrollo y Uso de Sistemas de Inteligencia Artificial en Entidades Públicas.
El documento reconoce que los sistemas de IA aplicados a la salud tienen un impacto directo sobre derechos fundamentales como la vida, la dignidad humana y el acceso equitativo a los servicios sanitarios, por lo que requieren medidas reforzadas de control, supervisión y transparencia.
Según la guía, los sistemas de IA utilizados en salud pública deben clasificarse como sistemas de alto riesgo, debido a las consecuencias que pueden generar decisiones erróneas o sesgadas. Esto implica la obligación de realizar evaluaciones de impacto algorítmico, auditorías periódicas y controles continuos durante todo el ciclo de vida de la tecnología.
El documento advierte que decisiones clínicas, priorización de pacientes o asignación de tratamientos no pueden quedar exclusivamente en manos de algoritmos sin supervisión humana.
Lo humano en salud. Uno de los principios más relevantes para el sector sanitario es la preservación del juicio clínico. La guía establece que la IA debe funcionar como un sistema de apoyo a la toma de decisiones, pero nunca reemplazar la evaluación de médicos, enfermeras u otros profesionales de la salud.
Las recomendaciones algorítmicas deben poder ser revisadas, explicadas y, si es necesario, modificadas por el personal sanitario, garantizando que la responsabilidad final siempre recaiga en personas y no en sistemas automatizados.
La guía subraya que los datos de salud son información altamente sensible y requieren un nivel máximo de protección. Todo sistema de IA en salud pública debe cumplir estrictamente con la normativa de protección de datos personales y aplicar principios como confidencialidad, seguridad, finalidad y acceso restringido.
Además, se recomienda implementar tecnologías de mejora de la privacidad y mecanismos de trazabilidad que permitan conocer cómo se usan los datos clínicos y con qué propósito.
Acceso a la salud. Otro eje central del documento es la equidad en el acceso a la salud. La guía advierte que los sistemas de IA pueden reproducir o amplificar desigualdades existentes si se entrenan con datos incompletos o sesgados.
Por ello, recomienda incorporar variables sociales, territoriales y demográficas, así como monitorear de forma constante posibles impactos discriminatorios relacionados con edad, género, ubicación geográfica o nivel socioeconómico.
La guía también establece que tanto los profesionales de la salud como los pacientes deben poder comprender cómo funcionan los sistemas de IA y por qué generan determinadas recomendaciones.
El derecho a recibir información clara y comprensible fortalece la confianza en la tecnología y permite ejercer mecanismos de revisión, apelación o corrección cuando una decisión automatizada afecta a una persona.
Gobernanza y supervisión. Para garantizar un uso responsable de la IA en salud pública, sugieren la creación de mecanismos de gobernanza específicos, como comités de ética multidisciplinarios que incluyan perfiles clínicos, técnicos, jurídicos y sociales.
Estos espacios deben encargarse de supervisar el diseño, implementación y evaluación de los sistemas, así como de establecer responsabilidades claras frente a posibles errores o daños.
El documento plantea que la innovación tecnológica solo es legítima si contribuye al bienestar colectivo, reduce brechas y fortalece el derecho fundamental a la salud.
Cuestión de principios
La Guía Ética de IA en Colombia se basa en estándares internacionales como los principios de la OCDE, las recomendaciones de la UNESCO y los lineamientos de gobernanza de las Naciones Unidas. A partir de estos marcos, el país define seis principios fundamentales para el uso de la inteligencia artificial en el sector público:
- Centralidad humana y bien público
- Transparencia, explicabilidad y rendición de cuentas
- Equidad, igualdad y no discriminación
- Privacidad, gobernanza de datos y seguridad
- Robustez, fiabilidad y seguridad de los sistemas
- Sostenibilidad ambiental y bienestar social
Estos principios buscan garantizar que los sistemas de IA sean comprensibles, auditables y seguros, y que no reproduzcan sesgos ni profundicen desigualdades existentes.
Diagnóstico y retos para la implementación de la IA
Antes de la elaboración del documento, Colombia aplicó la metodología RAM (Readiness Assessment Methodology) de la UNESCO para evaluar su nivel de preparación en materia de inteligencia artificial ética. El diagnóstico evidenció avances importantes, pero también la necesidad de actualizar marcos normativos, fortalecer la protección de datos personales y establecer mecanismos claros para la gestión de riesgos en sistemas de IA.
Un informe del Programa de las Naciones Unidas para el Desarrollo (PNUD) señaló que el país presenta un nivel “diferenciador” en preparación para la IA, aunque persisten desafíos en infraestructura tecnológica, capacidades técnicas y coordinación interinstitucional.
Recomendaciones clave para las entidades públicas
La guía no se limita a principios teóricos. Incluye recomendaciones prácticas como:
- Creación de comités de ética en inteligencia artificial
- Implementación de evaluaciones de impacto algorítmico
- Fortalecimiento de la capacitación de servidores públicos en IA y ética digital
- Promoción de espacios de participación ciudadana y transparencia
- Uso de entornos de prueba regulados (sandboxes) para innovación responsable
Además, destaca la importancia de consolidar una gobernanza de datos sólida, impulsar la interoperabilidad entre entidades y fortalecer el uso responsable de datos abiertos para el desarrollo de sistemas de IA confiables.
