Algorética, una combinación de las palabras algoritmo y ética, se refiere a la evaluación de las implicaciones éticas de las tecnologías, en particular la inteligencia artificial (IA), un campo que está cobrando cada vez más importancia y que tiene muchas implicaciones para la bioética.
En octubre de 2025, una coalición de líderes religiosos y académicos firmó en Roma una Declaración conjunta sobre la ética de la IA. Se trataba de un grupo muy diverso, pero muy inspirado por el llamamiento del papa León XIV a abordar las implicaciones de la IA e insistir en su uso ético. También se remitió a la «Llamada de Roma por la ética de la IA» del papa Francisco de 2020.
En primer lugar, es importante señalar que ninguna máquina puede sustituir al juicio humano. La aplicación de principios morales a la experiencia es una labor del intelecto. Dado que las máquinas carecen de conciencia, nunca podrán sustituir al razonamiento moral de los seres humanos. Por el contrario, deben seguir los estándares humanos.
La Iglesia ha elaborado un análisis en profundidad sobre el uso ético de la IA. La precisión, la transparencia, la seguridad, la dignidad humana y el bien común son las principales áreas que deben abordarse.
La precisión es importante porque los programas de IA tienen una preocupante tendencia a «alucinar» o proporcionar respuestas falsas que se presentan como hechos. Es evidente que los productos de IA que investigan y responden preguntas deben ser evaluados por revisores independientes y corregidos cuando generan información peligrosa. Al fin y al cabo, la IA se «entrena» y «aprende» a partir de grandes cantidades de datos, pero, como cualquier otra forma de educación, puede orientarse de manera positiva o perversa.
La transparencia ha sido históricamente un problema importante con la IA. El público tiene sin duda derecho a saber cuándo se comercializan productos de IA. La «caja negra» o el funcionamiento oculto de la mayoría de los programas de IA es problemático, ya que reduce sus respuestas a oráculos cuyas fuentes no pueden verificarse y evaluarse fácilmente.
Las preocupaciones sobre la privacidad también son muy reales cuando se trata de que la IA husmee en la información personal. Gran parte de la vida de las personas tiene ahora una «huella digital», por lo que información muy sensible puede filtrarse o ser utilizada indebidamente por ordenadores extremadamente potentes.
También es esencial un control adecuado del uso que las organizaciones de seguridad pública hacen de la IA. Hay pruebas de que algunos gobiernos utilizan el reconocimiento facial y otras tecnologías de vigilancia para detener o arrestar a personas que no son delincuentes.
También existe un consenso abrumador en que nunca se debe permitir que las armas de IA decidan de forma autónoma matar a seres humanos. Quitar una vida humana es una decisión trágica que conlleva responsabilidad moral y agencia. No se puede delegar en máquinas sin vida sin transgredir la ética y abrir una caja de Pandora de males. Esta parte de la Declaración Conjunta sobre Ética en IA requerirá un seguimiento riguroso, ya que la tentación de utilizar la IA en la guerra es enorme.
Existe una gran preocupación por cómo la IA puede socavar y socava la dignidad humana. «Además de protegernos contra la erosión del pensamiento crítico humano por parte de la IA, la mercantilización excesiva de la toma de decisiones humanas y el agravamiento de la desigualdad, la animosidad y el trauma humanos, los seres humanos debemos protegernos contra el potencial de la tecnología para perturbar o desplazar la interacción, las relaciones y la empatía humanas».
Se trata de una larga lista de posibles ofensas, lo que pone de relieve lo importante que es acertar con la algorética. Existe el peligro de que se produzca una «adoración idolátrica» de la IA, en la que las personas la traten como una especie de dios. Algunas personas incluso tienen nociones falsas y exaltadas sobre la capacidad humana para crear una forma de vida no humana, pero consciente de sí misma, a través de la IA.
Esto no es posible. Las máquinas procesan datos. Son incapaces de pensar conscientemente.
Todo esto conlleva a otro principio ético que debe aplicarse a la IA. Debe servir al bien común. Es éticamente incorrecto que los beneficios de la IA sean acaparados por unos pocos en lugar de distribuirse ampliamente. Del mismo modo, deben mitigarse los impactos negativos de la IA, como la posible sustitución de un gran número de trabajadores humanos. Todas las nuevas tecnologías han dejado obsoletos o redundantes algunos puestos de trabajo, pero también han creado nuevas oportunidades.
El dolor del desplazamiento no debe imponerse sin ayudar a los empleados y trabajadores a encontrar otros puestos de trabajo y a formarse para los que estén disponibles. Tampoco sería éticamente aceptable que los seres humanos se quedaran ociosos mientras los ordenadores y los robots hacían todo el trabajo. El desempleo forzoso es un delito.
El desarrollo de la IA no se ha beneficiado de sólidas garantías éticas. Su auge se ha visto impulsado en gran medida por el afán de lucro y también por regímenes autoritarios que buscan medios más eficaces para controlar a sus poblaciones. Esta falta de ética es una receta para el desastre cuando se aplica a una herramienta tecnológica tan poderosa. Afortunadamente, la Iglesia y muchas otras entidades con sensibilidad ética y un profundo conocimiento de los derechos humanos han intervenido cada vez más para hacer oír su voz. Es necesario que esto siga ocurriendo.
Felicitaciones a Ryan Anderson, del Centro de Ética y Política Pública (EPPC), y a los demás académicos y líderes que elaboraron la Declaración conjunta sobre la ética de la IA. Este es el tipo de reflexión que necesitamos actualmente. Además, la declaración incluye una larga lista de medidas que se sugieren como forma de ayudar a que la IA se ajuste a una buena algorética. Una de ellas es una de las principales prioridades del papa León, negociar una convención internacional que prohíba la guerra totalmente autónoma.
Muchos otros señalan la necesidad de regulaciones éticas que reduzcan el riesgo de tratar a la IA como una panacea en lugar de como una herramienta más al servicio de la humanidad. Ayudar en lugar de sustituir a los seres humanos es un marco moral interesante para pensar en los buenos usos de la IA, al igual que lo es en el ámbito de la evaluación de las intervenciones médicas y las tecnologías que abordan la infertilidad humana.
Publicada en The National Catholic Bioethics Center por Joseph Meaney | 11 de noviembre de 2025 | The Discipline of Algorethics






