Salud en Línea entrevistó a la abogada y especialista en bioética María Isabel Íñigo Petralanda para ahondar en el impacto de las Tecnologías de la Información y la Comunicación (TICs) en el ámbito de la salud. La experta abordó y desarrolló temas como la bioética y su carácter transdisciplinario y personalista, la relación entre el trabajo y la Inteligencia Artificial (IA); la transformación digital de la salud como garante de accesibilidad, equidad y justicia; la regulación y los posibles aprendizajes de lo actuado en otros países, y también analizó la salida de la Argentina de la Organización Mundial de la Salud (OMS).
Salud en Línea (SenL): ¿Qué es la bioética?
María Isabel Íñigo Petralanda (MIIP): Muchas veces se cree que la bioética solo es opinión o promesa de una buena intención para fidelizar actos morales. Sin embargo, la bioética es una transdisciplina (integrada por ciencias sociales, antropológicas, filosóficas, medicas, biomédicas, jurídicas etc.) que, con metodología y rigor científico, estudia y valora en casos concretos, dilemas morales, jurídicos y sociales que surgen con relación a las ciencias de la vida, el avance de la biomedicina, la biotecnología e inteligencia artificial (por mencionar solo algunos).
SenL: ¿Y el medioambiente está incluido?
MIIP: Claramente el medioambiente también, así como los recursos naturales, los animales y todo que condicione o comprometa la vida de las actuales y futuras generaciones de personas.
SenL: ¿Y el trabajo y la tecnología como la IA?
MIIP: El trabajo es un instrumento de dignidad y vida, que nos implica a hombres y mujeres en la función social por excelencia. Del trabajo surgen bienes y servicios para responder a otras funciones vitales propias y de la sociedad.
La tecnología ha estado junto al hombre desde su inicio en diversos grados de desarrollo como una herramienta que surge del intelecto humano y a fines de asistirlo. Un buen ejemplo es el martillo que asiste al carpintero para elaborar el techo de una casa, o en mayor grado de complejidad el algoritmo que detecta una imagen patológica en un estudio de diagnóstico por imágenes.
La naturaleza de “cosa al servicio” es la misma, lo que no va a ser lo mismo es la complejidad y su destino. Y sobre esto último me quiero detener ya que debe tener un fin de servicio para un alguien, la persona en concreto (siempre) y no al revés, que esta tecnología se fagocite la dignidad. Con esto no quiero decir que la IA reemplaza a las personas, sino que la IA aprendida en una curva de desarrollo en un grupo social es fundamental para tomar decisiones responsables.
SenL: ¿Es decir bioética, tecnología y sociedad van de la mano?
MIIP: Si, porque necesitamos de otros para vivir. Sin otro humano, “nadie se salva” y de paso te adelanto que sin humanos no hay tecnología, o habría martillo (para todo).
SenL: ¿Por qué hablas de ética “personalista”?
MIIP: Porque desde la bioética personalista se afirma que la persona humana es el centro, sujeto y fin de toda intervención técnica, asistencial o investigativa. Se parte de la dignidad de quien “es” la persona (un alguien singular), que no se puede reducir a mercancía, función o utilidad. Además, se promueve una ética del cuidado, del respeto integral, de la participación con otros en la sociedad y del bien común (por las razones que te mencionaba de que nadie se salva solo). Esta visión no se limita a aplicar principios, sino que propone una ética relacional en acto y contextual. Los actos deben procurar verdad y bondad por parte de quien los ejecuta. Se médico, paciente etc. La bioética personalista (como filosofía practica) procura alcanzar el bien y evitar el mal como hipótesis de mínima.
SenL: ¿Por qué es clave para el desarrollo de la salud digital?
MIIP: Porque la salud digital involucra decisiones que tocan la intimidad, la autonomía, la vida y la integridad de las personas. No es solo una herramienta tecnológica; es una forma de organizar el cuidado, de recolectar, analizar y actuar sobre datos sensibles que reflejan dimensiones profundas del sujeto.
Como dije hasta saciar, desde la bioética personalista, la salud digital debe estar al servicio de la persona y no al revés. Esto implica asegurar que cada innovación respete la centralidad del paciente como sujeto moral, que no sea tratado como objeto de cálculo o predicción, sino como alguien con historia, contexto, valores y necesidades singulares. Este enfoque impulsa una transformación digital humanizada, que garantice accesibilidad, equidad y justicia.
SenL: ¿Qué pensás de la idea de que no se puede avanzar con la IA en salud sin un asesoramiento en bioética?
MIIP: No solo es una idea acertada: es una condición de posibilidad para que la IA en salud sea legítima, segura y verdaderamente útil. La implementación de inteligencia artificial sin asesoramiento bioético corre el riesgo de despersonalizar la atención, opacar la responsabilidad de los decisores o invisibilizar los sesgos que afectan especialmente a poblaciones vulnerables.
Desde la bioética personalista, esto cobra aún más fuerza: los desarrollos algorítmicos deben partir del respeto a la persona concreta, con sus límites, derechos, miedos y esperanzas. Un algoritmo que predice diagnósticos o decide tratamientos sin resguardar la dimensión ética y humana del acto médico se podría convertir en una amenaza. Por eso el acompañamiento bioético no es un freno, sino un marco valorativo para un desarrollo moralmente sostenible.
En los comités de ética en investigación (CEIs), yo coordino el de la Universidad Católica Argentina, analizamos rigurosamente y valoramos moralmente y con carácter vinculante (Ley 3301) las intervenciones donde tecnologías digitales tienen un grado de proximidad con el participante o riesgo para la sociedad. Es decir, cuestiones tales como el diseño de la solución con grado médico, la toma del consentimiento informado, esclarecido y digital y la captura de datos sensibles.
SenL: En este escenario, ¿dónde es importante la regulación y por qué?
MIIP: Una pregunta simple de compleja respuesta. La regulación de la inteligencia artificial y la salud digital en Argentina es clave en cuatro planos estratégicos: en primer lugar, la protección de datos personales sensibles ya que la salud digital implica la circulación masiva de datos biomédicos, genómicos y contextuales. Es indispensable asegurar que su tratamiento cumpla con estándares de confidencialidad, consentimiento informado, minimización de uso y control por parte de la persona. Hoy, la Ley 25.326 de Protección de Datos Personales (Nueva ley en tratamiento Parlamentario) necesita salir a la luz para dar respuesta a los desafíos de algoritmos que procesan grandes volúmenes de información sensible.
En segundo lugar la validación clínica y eficacia de tecnologías algorítmicas. La ANMAT y la ANEFITS deben trabajar articuladamente para evaluar que las soluciones de IA tengan respaldo clínico y ética aplicada, especialmente si se utilizan para diagnóstico, tratamiento o estratificación de riesgo. No todo software con IA debe ser aprobado, solo aquel que demuestre valor sanitario real, equidad en su impacto y seguridad para los pacientes.
En tercer lugar, la responsabilidad civil, penal y ética por errores algorítmicos. Frente a fallas en sistemas de IA usados en medicina, es necesario definir claramente las responsabilidades entre desarrolladores, profesionales que usan la herramienta, instituciones que la adoptan y organismos que la aprueban. La ausencia de regulación puede generar vacíos legales, impunidad o daños sin reparación. Esto requiere reformas legislativas que contemplen explícitamente a los sistemas algorítmicos en el derecho de daños y en la ley de defensa del paciente.
Por último la auditoría ética y transparencia algorítmica. No se puede permitir que la IA en salud opere como una “caja negra” ni que se frene a innovación por temor a que potencialmente haga daño. Deben existir mecanismos formales para auditar cómo funciona un algoritmo, bajo qué datos fue entrenado y si reproduce sesgos. Los comités de ética en investigación y los comités hospitalarios deben tener competencias reforzadas para evaluar estas tecnologías, en consonancia con principios bioéticos como justicia, beneficencia y no maleficencia.
Desde una mirada personalista, regular la IA no es limitar el progreso: es garantizar que ese progreso esté verdaderamente al servicio de la persona humana, que no sea excluyente, que no mercantilice lo íntimo ni fragmente lo relacional. En este sentido, la regulación es un acto de cuidado, de justicia y de responsabilidad institucional.
SenL: ¿Qué se puede aprender de otros países que avanzan en la implementación de IA para la salud con Estados comprometidos en este escenario? ¿Cómo está Argentina? ¿Y el resto de los países de la región?
MIIP: Los países que han avanzado con marcos regulatorios sólidos y Estados activos —como Canadá, Reino Unido o Finlandia— muestran que no hay transformación digital sostenible sin políticas públicas centradas en la equidad, la transparencia y la participación.
Desde una mirada personalista, esos modelos permiten ver que lo esencial no es solo la infraestructura o la interoperabilidad técnica, sino la voluntad política de cuidar a las personas en su dimensión integral. En Argentina hay un gran potencial técnico y humano, pero falta una mayor articulación normativa y una estrategia nacional centrada en la persona. En la región, el panorama es heterogéneo: algunos países han avanzado en historiales clínicos electrónicos y otros en regulación, pero casi ninguno ha integrado aún de manera sistemática la dimensión ética y relacional de la IA.
SenL: ¿En qué impacta salir de la OMS para el cumplimiento de los ocho principios rectores de la transformación digital del sector de la salud que promueve la OPS?
MIIP: Salir de la OMS a priori debilita los procesos de cooperación, vigilancia epidemiológica y construcción de políticas comunes. Pero también implica un impacto simbólico y ético: es una retirada del compromiso colectivo con los valores de solidaridad, universalidad y protección de los más débiles.
Los ocho principios de la OPS (equidad, solidaridad, gobernanza, participación, entre otros) son profundamente convergentes con el enfoque personalista. Prescindir de estos marcos compartidos puede favorecer modelos de salud digital fragmentados, mercantilizados o deshumanizados. La salud —y su digitalización— no puede pensarse desde el aislamiento ni desde intereses individuales: requiere comunidad, vínculo y responsabilidad mutua.