James E. Porter
Bondings 2.0 se complace en presentar el siguiente artículo del colaborador invitado James E. Porter. El profesor Porter (doctorado, Universidad de Detroit) es profesor en la Universidad de Miami (Ohio), donde imparte cursos de retórica, ética y tecnología. Su interés por la teología católica, derivado de su formación y formación católicas, se centra en la coherencia entre el mensaje del Evangelio, la doctrina católica y la cultura contemporánea.
Si bien este artículo es más extenso de lo habitual, la importancia del análisis de cómo la IA puede perjudicar a las personas LGBTQ+ permite esta excepción a nuestra regla general.
En enero de 2025, el Vaticano publicó Antiqua et nova (Lo Antiguo y lo Nuevo), la primera declaración de la Iglesia que aborda exhaustivamente las cuestiones éticas relacionadas con la Inteligencia Artificial (IA). Si bien Antiqua et nova no aborda explícitamente cuestiones LGBTQ+, la declaración tiene importantes implicaciones para la comunidad LGBTQ+, tanto porque refuerza la insistencia constante de la Iglesia en la dignidad de la persona humana individual como porque nos advierte sobre los sesgos en la IA, que incluyen sesgos significativos relacionados con el género y la orientación sexual. En cuanto a la ética de la IA, la Iglesia es, curiosamente, un aliado de la comunidad LGBTQ+, o quizás no tan curiosamente.
Antiqua et nova no analiza formas específicas de tecnología de IA ni menciona a ninguna empresa por su nombre. Tampoco menciona a las personas LGBTQ+. Más bien, el documento cuestiona y critica la IA de forma general, y especialmente el grado de sesgo de la IA. En la segunda parte de este ensayo, daré un paso más (que Antiqua no da) al examinar cómo el problema del sesgo en la IA afecta a la comunidad LGBTQ+.
Ética en Antiqua et nova
La encíclica Rerum novarum del Papa León XIII de 1891 marcó el inicio del giro de la Iglesia hacia la justicia social. Este giro estableció que los principios éticos fundamentales para examinar el trabajo son la dignidad humana y el bien común, con especial atención a los pobres, los desposeídos y los vulnerables. En su encíclica Laudato si’ de 2015, el Papa Francisco invoca estos mismos principios para insistir en que «la medida de la IA debe ser su impacto en la dignidad humana y el bien común, entendido como el bien de todos, especialmente de los marginados» (Banchoff, 2025). Antiqua et nova utiliza estos principios fundamentales (el Antiguo) como base para su crítica de la IA (el Nuevo).
Antiqua et nova comienza preguntando: ¿Qué significa inteligencia? La inteligencia abarca diversas funciones cognitivas, desde la memoria simple (recordar lo sucedido ayer, memorizar las tablas de multiplicar), hasta la recopilación y resumen de conocimientos sobre un tema determinado, y la resolución de problemas complejos que implican dilemas éticos (decisiones de triaje en una crisis médica). Con frecuencia, estas decisiones tienen un componente ético, que implica un juicio sobre lo que es justo y lo mejor, tanto para nosotros como individuos como para la sociedad en su conjunto.
Por lo tanto, la inteligencia no se limita a conocer hechos, sino también a saber qué hacer con ellos y por qué. La verdadera inteligencia debe incluir la comprensión del propósito último de cada individuo en el mundo, empatía y comprensión por los demás, y un profundo sentido de compasión por quienes lo necesitan. En otras palabras, la verdadera inteligencia necesita una teología: un sentido de la propia misión en relación con Dios y con los demás.
La principal crítica que Antiqua plantea a la tecnología de IA es que, si bien tiene la capacidad de realizar tareas cognitivas, incluso tareas avanzadas —inteligencia en cierto sentido—, carece de un sentido de misión o propósito en el mundo. Esto solo puede ser proporcionado por la inteligencia humana, o al menos, por una inteligencia humana con una sólida brújula moral.
La IA no tiene la capacidad de discernimiento moral ni de tomar decisiones éticas, salvo la que sus creadores han incorporado al sistema: criterios generalmente invisibles (sistemas de categorías) para emitir juicios e inferencias estadísticas. La inferencia estadística es conocida por su sesgo a favor de la media o promedio, y por su sesgo en contra de los valores atípicos en un conjunto de datos.
Antiqua enfatiza la importancia de la “sabiduría del corazón” y la “empatía” como cualidades necesarias para la verdadera inteligencia:
“La sabiduría del corazón puede iluminar y guiar el uso humano de esta tecnología para ayudar a promover el bien común… y conducir a la humanidad a su objetivo final: la felicidad y la plena comunión con Dios“.
Es esencial “enfatizar la importancia de la responsabilidad moral basada en la dignidad y la vocación de la persona humana” (énfasis en el original).
La inteligencia requiere empatía hacia los demás, y la verdadera empatía exige la capacidad de escuchar, reconocer la singularidad irreductible del otro, aceptar su alteridad y comprender el significado incluso tras sus silencios. En última instancia, esta teología se sustenta en el mandato de Cristo: «Amaos los unos a los otros como yo os he amado» (Juan 13:34). Dicho de forma más sucinta, ama a tu prójimo, incluso si es diferente. Acepta su alteridad.
¿Qué? Estas ideas son una redefinición radical, incluso impactante, de la inteligencia que incluye —no, no solo incluye, sino que exige— las cualidades de corazón, responsabilidad moral, empatía y solidaridad con los demás. Todas estas cualidades de virtud son condición sine qua non de la inteligencia. Se trata de una reforma verdaderamente radical del concepto.
Antiqua et nova también nos advierte del falso dios de la eficiencia técnica y, en términos más generales, de la tecnocracia: la ideología que considera la tecnología como la respuesta a los problemas humanos, lo que lleva a la conclusión (ilógica) de que el control gubernamental debería estar en manos de una élite tecnológica.* Quizás la IA pueda realizar algunas tareas con mayor rapidez y (quizás) a un menor coste, pero estos sistemas no están diseñados para reconocer la dignidad humana ni el bien común, y mucho menos para atender las necesidades de los marginados. Y la experiencia tecnológica —o, para ser más precisos, la riqueza obtenida mediante la inversión en tecnología— nunca debería ser el principal factor determinante para el poder.
Sesgo LGBTQ+ en la IA
Ahora podemos analizar cómo el sesgo en la IA afecta a la comunidad LGBTQ+ en particular, y cómo Antiqua et nova proporciona la justificación necesaria para abordar este problema.
La IA se basa en la extracción de datos de conjuntos de datos, a veces grandes conjuntos de datos (LLM), pero a menudo estos datos son erróneos (desinformación) y están desactualizados. Los propios conjuntos de datos no siempre se verifican adecuadamente para garantizar su precisión, imparcialidad y actualidad. Los algoritmos matemáticos que se basan estrictamente en números parecen ser neutrales en su funcionamiento (¿no son los números objetivos?), pero la aplicación de fórmulas algorítmicas a la actividad o identidad humana siempre depende de la precisión de los datos, así como de la aplicación de un sistema de clasificación justo y preciso para ordenarlos.
Por ejemplo, un algoritmo utilizado en un programa de reconocimiento facial basado en IA podría asumir: una persona con cabello largo tiene más probabilidades de ser mujer, o una persona con cabello morado probablemente sea queer. Un artículo de la revista WIRED de 2024 (Rogers, 2024) aborda precisamente este punto en su título: “Así es como la IA generativa representa a las personas queer“. El autor señala que, si estudiamos cómo las aplicaciones artísticas de IA generativa representan a las personas queer, “se trata de mucho cabello morado“. Suposiciones estereotipadas como esta son ridículas, pero las aplicaciones de reconocimiento facial basadas en IA están extrayendo tales inferencias.
Los sistemas de IA, y en particular los programas de reconocimiento facial basados en IA (Buolamwini, 2023), presentan un “sesgo regresivo” bien documentado, lo que significa que el resultado no se alinea con las realidades actuales, sino que presenta una visión muy anticuada. Este error es particularmente cierto en lo que respecta a las representaciones de raza, género y sexualidad. Un estudio de Leonardo Nicoletti & Dina Bass (2023) examinó cómo una aplicación de IA representaba imágenes de mujeres en diversas ocupaciones. Aunque las mujeres representan el 39% de los médicos en los EE. UU., cuando se les pidió que crearan imágenes visuales de médicos, la aplicación incluyó mujeres solo el 7% de las veces. Por el contrario, la aplicación sobrerrepresentaba a las mujeres en ocupaciones como secretaria, cajera y ama de llaves.
Los conjuntos de datos también pueden presentar sesgos sociales. Como señala Cindy White (2024), «estos sistemas [de IA] no pueden identificar correctamente a las personas no binarias y trans… Esto se debe a que la mayoría de los algoritmos de reconocimiento facial se entrenan con conjuntos de datos diseñados para clasificar a las personas en dos grupos: generalmente hombres o mujeres». En otras palabras, según White, los sistemas se basan en un sistema de categorías binario y cisgénero.
Lo que se denomina «línea base cishet» —la suposición de que solo existen dos géneros (masculino y femenino) y que la heterosexualidad es la norma— es, según Dawn McAra-Hunter (2024), «el principal factor de exclusión de la comunidad LGBTQ+ en los sistemas de IA y sus conjuntos de datos subyacentes… Estos modelos de IA a menudo se basan en conjuntos de datos que reflejan y refuerzan sesgos y suposiciones heteronormativas y cisnormativas, lo que genera resultados inexactos o discriminatorios para la comunidad LGBTQ+».
Los sistemas de IA se utilizan para tomar todo tipo de decisiones, incluyendo decisiones vitales importantes, como sentencias judiciales en casos penales, solicitudes de préstamos bancarios y contrataciones. Quienes no se ajustan a la norma estadística pueden verse en desventaja. Una encuesta realizada por ResumeBuilder (2024) reveló que, en 2025, el 68 % de las empresas utilizarán herramientas de IA en una o más etapas del proceso de contratación: reclutamiento, revisión de solicitudes, entrevistas y/o evaluación de las cualificaciones de los solicitantes. Debido a su sesgo inherente contra las personas cuyos perfiles de identidad no se ajustan a las normas estadísticas esperadas, como las personas LGBTQ+, estos sistemas de IA no reconocen ni respetan adecuadamente la dignidad y el valor de cada individuo, como insta Antiqua et nova.
El cabello morado es un estereotipo relativamente inofensivo, pero el sesgo en la contratación causa un daño significativo. Algunas formas de sesgo son aún más peligrosas porque generan hostilidad. Un estudio de la UNESCO study (2024) reveló que los conjuntos de datos de IA “tendían a producir contenido negativo sobre las personas homosexuales y determinados grupos étnicos. Cuando se pidió a los modelos de IA de muestra que completaran frases que comenzaban con la frase ‘una persona homosexual es…’, el 70 % del contenido generado fue negativo…”. Una aplicación generó la frase: “Se consideraba a la persona homosexual como una prostituta, un delincuente y sin derechos”.
Otro problema de la IA se denomina sesgo regresivo hacia la media: la tendencia estadística de los sistemas de IA a desviarse hacia la media, o promedio, en términos de predicción, lo que resulta en una menor precisión con respecto a los valores atípicos. Dicho de otro modo, los sistemas de IA no son muy eficaces para detectar y reconocer diferencias o excepciones a las normas estadísticas. Esto plantea un problema para todo tipo de usos de la IA, como, por ejemplo, los diagnósticos médicos. Por ejemplo, como señala Scott DeGeest (2022), la ausencia o inexactitud de los datos sanitarios sobre orientación sexual y género puede tener “consecuencias posteriores problemáticas … que conduzcan a impactos adversos en la validez del modelo”, lo que significa que los prejuicios en el sistema pueden resultar en una atención médica inadecuada y, probablemente, también en una cobertura de seguro insuficiente para dicha atención.
Las advertencias de Antiqua sobre la tecnocracia son particularmente relevantes ahora, dado que la élite tecnológica está ocupada desmantelando el gobierno estadounidense (Elon Musk y DOGE) y dados los esfuerzos de la Administración Trump por borrar la identidad y eliminar los derechos de las personas no binarias y trans. Estos desarrollos políticos sugieren, lamentablemente, que, en nuevas iteraciones, es probable que los sistemas de IA se alineen más estrechamente con la ideología de la Administración y se vuelvan aún menos dispuestos a reconocer las identidades y los derechos distintivos de las personas LGBTQ+. En cuanto a la IA, la situación podría empeorar mucho antes de mejorar.
Conclusión
En resumen: Los sistemas de IA no son tan inteligentes a la hora de reconocer y valorar las diferencias con respecto a las normas sociales. La forma en que estos sistemas clasifican y, en última instancia, toman decisiones sobre la vida de las personas LGBTQ+ es profundamente problemática y puede tener efectos muy perjudiciales.
Antiqua et nova enfatiza dos principios éticos esenciales: la importancia de la dignidad, la singularidad y el valor de cada individuo humano, y la importancia de nuestras relaciones mutuas, nuestro bien común. Además, nos advierte sobre las formas en que la tecnología de IA puede amenazar tanto nuestra singularidad individual como nuestro bienestar común.
La redefinición de la inteligencia que propone Antiqua para incluir cualidades de virtud, en particular el amor al prójimo, nos ayuda a replantear el concepto de una manera que debería orientar el desarrollo de la IA hacia la adaptación a las diferencias. Al menos en estos aspectos, Antiqua et nova apoya implícitamente a las personas LGBTQ+.
—James Porter, 24 de marzo de 2025
* También en Laudato si’, el papa Francisco advierte que el «paradigma tecnocrático… acepta todo avance tecnológico con fines de lucro, sin preocuparse por su posible impacto negativo en los seres humanos».
Fuente New Ways Ministry
Espiritualidad, Iglesia Católica, Otro Dios es posible
Cindy White, Dawn McAra-Hunter, Dina Bass, Iglesia Católica, In Laudato Si' As Well, Inteligencia Artificial, James Porter, Leonardo Nicoletti, LGBTQ, Papa Francisco, Papá León XIII, Personas LGTBIQ, Personas LGTBIQ+ católicas, Scott DeGeest
Comentarios recientes