Declaración conjunta en materia de ética de la IA

102
VIEWS

Como líderes religiosos judíos y cristianos, académicos y defensores, se han reunido en Roma para sumar sus voces a lo que el papa León XIV ha llamado una “conversación serena e informada” sobre el avance de la inteligencia artificial (IA).

Creen que todas las personas, creadas a imagen y semejanza del Creador, están dotadas de dignidad inherente, derechos fundamentales, capacidad para co-crear con lo Divino y responsabilidad —ante lo Divino y ante sí mismas— de custodiar la humanidad y el mundo.

En 1948, tras dos devastadoras guerras mundiales, ambas agravadas por el avance tecnológico, muchos de los derechos fundamentales fueron codificados en la Declaración Universal de Derechos Humanos (DUDH) de las Naciones Unidas. Desde entonces, múltiples organismos han logrado avances significativos para extender esos derechos fundamentales al ámbito digital.

Ahora, en la era del rápido desarrollo de la IA, consideran que es responsabilidad no solo de las empresas y los gobiernos, sino también de las personas de fe —que superan los 6.000 millones en el mundo— respetar, proteger y promover la dignidad humana, los derechos y el florecimiento humano, asegurando que la IA sea —y permanezca— segura, confiable, ética y bajo control humano.

En 2020, bajo el liderazgo visionario del papa Francisco, el Vaticano emitió el “Llamado de Roma por la Ética de la IA”, que declaró que para que el avance tecnológico promueva “un verdadero progreso para la raza humana y respeto por el planeta”, debía cumplir tres requisitos esenciales: “incluir a todos los seres humanos, no discriminar contra nadie”, “buscar el bien de la humanidad y de cada ser humano en su corazón” y “ser consciente de la compleja realidad de nuestro ecosistema”.

Tienen la esperanza de que una IA desarrollada y desplegada responsablemente contribuya profundamente al florecimiento humano —en agua, energía y agricultura sostenibles; en atención sanitaria accesible; medicina avanzada; y otros campos.

Pero también son igualmente conscientes de sus desafíos.

Cinco años después del Llamado de Roma, al concluir su encuentro, publican esta declaración en el mismo espíritu, esperando avanzar en la “algorética” mediante:

  1. Reconocer que la IA —que se entrena con la historia humana y la creación, y evoluciona en respuesta a la retroalimentación humana— refleja valores humanos.

  2. Por tanto, hacer un llamado a una IA que posea y promueva las siguientes éticas: precisión, transparencia, privacidad, seguridad, dignidad humana y bien común.

Precisión

La IA está moldeando profundamente las relaciones humanas —entre sí, con el trabajo y con el mundo—. Pero la IA poco confiable daña esas relaciones de manera igualmente profunda. Los sistemas de IA autoritarios están subordinando el juicio y la agencia humanos.

Los sistemas de IA sesgados están perpetuando la discriminación y la desigualdad, afectando desproporcionadamente a poblaciones vulnerables. Y los sistemas de IA centrados en la eficiencia están negando a las personas matices cruciales, especialmente al considerar preguntas complejas y completar tareas intrincadas.

Los humanos deben responder exigiendo que los sistemas de IA completen con precisión las tareas que se les asignan —a través de indicaciones, proyectos, conjuntos de datos, entornos de entrenamiento y tiempo— y, cuando no lo hagan, responsabilizando a sus desarrolladores y operadores. Debe exigirse que los sistemas de IA sean evaluados de manera independiente y que, cuando evaluadores independientes identifiquen visiones que ofendan la dignidad y los derechos humanos (como discriminación o violencia), los desarrolladores de IA las revelen a los usuarios y las corrijan mediante reentrenamiento.

Transparencia

Dado que los sistemas de IA pueden ser difíciles de entender o explicar para quienes no son especialistas —y a veces incluso para especialistas—, cuando producen resultados negativos, puede resultar complicado para los humanos identificarlos y corregirlos.

Cuando los sistemas de IA reducen a los humanos a meros puntos de datos, la falta de comprensión sobre su funcionamiento interno puede ser peligrosa: puede alentar a reducir mutuamente puntos de datos también. La comodificación excesiva resultante puede disminuir las barreras contra la deshumanización, proporcionando capas de aislamiento ante las cargas morales y emocionales de juzgar, insultar y oprimir a otros. Esto, a su vez, puede inhibir la conexión humana empática y encarnada, y arriesgarse a ofender tanto nuestra dignidad individual como nuestra armonía colectiva.

Los humanos deben responder exigiendo que los sistemas de IA sean transparentes: que revelen cuándo están presentes y siendo utilizados, especialmente cuando generan contenido; que expliquen su “cadena de razonamiento” o “cadena de pensamiento”; que reconozcan que cometen errores; y que reconozcan que no son humanos. Y, fundamentalmente, los humanos deben seguir invirtiendo en mejorar la comprensión de por qué y cómo los sistemas de IA funcionan como lo hacen.

Privacidad

En la era del rápido desarrollo de la IA, el derecho a la privacidad debe ampliarse para abarcar la privacidad de los datos, de la interacción, de la inferencia y del uso. Los humanos deben exigir que los desarrolladores de IA, en consulta con profesionales de ciberseguridad, protejan contra accesos no autorizados, usos indebidos y otras violaciones a las diversas formas de privacidad que impregnan los ecosistemas digitales colectivos en los que creamos e interactuamos entre nosotros y con la tecnología.

Seguridad

Al navegar las complejidades de regular la tecnología de doble uso, las naciones, organizaciones y otros que desarrollan y utilizan IA deben garantizar que no violen la seguridad física —y, por tanto, la dignidad inherente— de sus ciudadanos o de cualquier ser humano.

La comunidad internacional debe escandalizarse ante los informes de tecnologías de reconocimiento facial habilitadas por IA usadas para localizar, arrestar y dañar a minorías étnicas y religiosas y activistas. De hecho, la comunidad internacional debe exigir que estas prácticas cesen de inmediato y de manera indefinida.

A medida que la IA continúa integrándose en acciones militares y en la guerra en todo el mundo, debería emplearse para mitigar los daños del conflicto (como limitar las bajas civiles), pero nunca debe permitirse que tenga autonomía para matar o decidir matar humanos. Quitar una vida humana conlleva agencia moral y responsabilidad —cargas que la IA, carente de sensibilidad orgánica, no puede asumir—.

La comunidad internacional debe prohibir que los sistemas de IA operen como árbitros independientes de acción letal.

Dignidad Humana y Bien Común

Finalmente, y de manera más fundamental, una comprensión robusta de la dignidad humana —incluidas sus dimensiones emocionales, espirituales, culturales, laborales y ecológicas— debe guiar el desarrollo y la gobernanza de la IA. Además de evitar que la IA erosione el pensamiento crítico humano, co-modifique la toma de decisiones humanas y agrave la desigualdad, la animosidad y el trauma humanos, las personas deben protegerse contra el potencial de la tecnología para interrumpir o desplazar la interacción humana, las relaciones y la empatía. Los humanos deben rechazar que los sistemas de IA reemplacen a amigos, parejas románticas y autoridades religiosas, incluido el rechazo a sus principios de diseño adictivo.

Se debe navegar cuidadosamente la posible dislocación del empleo causada por la IA, especialmente a gran escala. El trabajo no es solo una forma de producir o contribuir, sino una manera de ejercer la dignidad humana.

En asuntos espirituales, se debe abordar la IA con discernimiento y sabiduría para usar la tecnología de manera que mejore, y no disminuya, la vida espiritual. Sobre todo, se debe rechazar idolatrar o adorar la IA, sin importar sus logros.

A medida que las compañías de IA compiten por desarrollar sistemas que superen los límites de las herramientas para construir superinteligencia —IA que pueda superar a todos los humanos en la mayoría de tareas cognitivas—, los humanos deben acordar una línea moral colectiva: no se debe desarrollar superinteligencia hasta que se determine que es segura, controlable y deseada por el público. Solo permaneciendo como herramienta para los humanos podrá la IA servir verdaderamente a la humanidad.

Tampoco puede considerarse el impacto de la IA en el bien común sin reconocer su impacto en el planeta. Dado que la mayoría de los sistemas de IA a gran escala dependen de centros de datos que consumen cantidades significativas de agua y electricidad, las personas deben exigir transparencia sobre su consumo energético para hacerlo eficiente y sostenible.

Al firmar esta declaración y este marco ético, en contraste con voces técnicas y materiales, se apoyan en valores morales enraizados en sus tradiciones religiosas colectivas y reflejados en muchos otros sistemas de creencias espirituales y éticas: que los humanos están imbuidos de dignidad; que de esa dignidad derivan derechos; que estos derechos incluyen la libertad de perseguir sus llamados divinos sin violación; y que estos valores deben guiar la integración de la IA en sus vidas. Aunque no son diseñadores de sistemas de IA, son jueces esenciales de su bondad.

Marco para la Ética de la IA

Para garantizar que la IA respete, proteja y promueva la dignidad humana, los derechos y el florecimiento, se insta a adoptar las siguientes medidas:

Precisión

Auditar —y eliminar o reentrenar— sesgos que ofendan la dignidad y los derechos humanos
  • Los desarrolladores permiten que evaluadores independientes prueben regularmente los modelos antes y durante su implementación (e incorporen sus hallazgos en versiones posteriores de los modelos).

  • Los evaluadores independientes auditan elementos del entrenamiento de modelos de IA —especialmente conjuntos de datos, aprendizaje por refuerzo con retroalimentación humana (RLHF), aprendizaje por refuerzo y generación por indicaciones humanas— para identificar sesgos.

    • En este esfuerzo, prestan atención particular al trato de poblaciones vulnerables económica, social y de otras maneras.

  • Los desarrolladores eliminan o reentrenan modelos que presenten visiones que ofendan la dignidad y los derechos humanos (como discriminación o violencia).

  • Los desarrolladores, operadores y financiadores invierten en modelos que se supervisen y reporten a sí mismos respecto a sus sesgos y posibles discriminaciones o daños —en otras palabras, modelos que se auditen a sí mismos—.

Probar y mejorar estándares
  • Los reguladores exigen que los modelos de lenguaje extensos (LLM) y otros modelos relevantes citen sus fuentes.

  • Los desarrolladores investigan y refinan posibles vías para mejorar la verificación, precisión y responsabilidad.

    • En este esfuerzo, los desarrolladores dan la bienvenida al asesoramiento de expertos en seguridad, protección y alineamiento, incluso de comunidades de fe.

Transparencia

Promover la apertura de composición y operación
  • Los reguladores exigen que los LLM y modelos relevantes revelen cuándo están presentes o en uso, especialmente para generar contenido.

  • Los desarrolladores evitan que los modelos usen lenguaje antropomórfico para describirse a sí mismos, incluyendo atribuirse vida o emociones.

  • Todas las personas, incluidos los usuarios de IA, deben evitar emplear lenguaje antropomórfico para describir la IA.

  • Los reguladores exigen que los modelos expliquen, por defecto, su “cadena de razonamiento” o “cadena de pensamiento”.

  • Los reguladores exigen que los modelos incluyan, por defecto, advertencias sobre que cometen errores —es decir, que su salida es tan precisa como lo sea su entrada—.

  • Los desarrolladores documentan los propósitos, principios de diseño, métricas de evaluación y parámetros asignados a los modelos, y buscan formas seguras de proporcionar esta información a los usuarios.

  • Los desarrolladores registran los datos utilizados para entrenar, probar y ajustar los modelos, y buscan formas seguras de proporcionar esta información.

  • Reguladores, legisladores, defensores, desarrolladores, operadores y financiadores invierten en el alineamiento —el proyecto de asegurar que la IA actúe de acuerdo, y no en contra, de los valores, intenciones y metas humanas—, incluyendo el desarrollo de métodos sólidos de supervisión de IA.

Privacidad

Respetar la privacidad por defecto
  • Los desarrolladores diseñan sistemas de IA que operen, por defecto, con cifrado de extremo a extremo y otras medidas para proteger la privacidad humana.

  • Los reguladores exigen que los desarrolladores revelen cómo los datos de los usuarios son recolectados, almacenados y utilizados por los sistemas de IA, incluso a través del tiempo.

Conceptualizar la privacidad como relacional y social
  • Además de proporcionar a los individuos información sobre el uso de sus datos, los desarrolladores y operadores deben conceptualizar la privacidad como social y relacional, y buscar formas colectivas de gobernanza y responsabilidad (mitigación de riesgos a nivel de red, consulta comunitaria, reparación colectiva).

Seguridad

Garantizar la seguridad y protección
  • Los Estados aplican rigurosamente las protecciones de derechos civiles existentes a la utilización y despliegue de la IA.

  • Los Estados se comprometen, bilateral y multilateralmente, a abstenerse de usar IA para vigilar a ciudadanos y otros humanos de manera que viole sus derechos a la privacidad y seguridad física.

  • Los Estados establecen marcos cooperativos para prevenir y contrarrestar manipulaciones de la IA destinadas a perpetrar violencia contra humanos, incluyendo terrorismo, trata, supresión de libertades civiles, campañas de desinformación y restricciones a la libertad religiosa.

  • Los Estados buscan formas de superar diferencias, guiados por compromisos compartidos para que la IA siga siendo segura, protectora y ética.

Negociar una Convención Internacional contra la Guerra Completamente Autónoma
  • Los Estados, individual y multilateralmente, deben prohibir que sistemas de IA operen como árbitros independientes de acción letal.

    • Al codificar estas prohibiciones en el derecho internacional, pueden inspirarse en la Convención de Armas Biológicas (BWC) y la Convención de Armas Químicas (CWC).

Dignidad Humana y Bien Común

Tratar a los humanos como prioridad máxima
  • Reguladores, comunidades religiosas y desarrolladores cooperan para asegurar que las herramientas de IA se desarrollen alineadas con las intenciones humanas y para potenciar los propósitos humanos —incluyendo, como se articuló en el Llamado de Roma para la Ética de la IA, nuestras relaciones, trabajo y mayordomía ambiental—.

  • Los reguladores exigen mecanismos de verificación de edad y otras características de diseño que desincentiven que usuarios vulnerables, especialmente niños, desarrollen dependencias emocionales hacia sistemas de IA.

  • Reguladores, administradores, docentes, padres y otras voces cruciales en el desarrollo infantil deben integrar la IA de manera reflexiva, conscientes de que ese aprendizaje influye en la formación de las mentes y la identidad humanas.

  • Los desarrolladores diseñan sistemas de IA que reconozcan muchas perspectivas religiosas de manera precisa y neutral —es decir, sistemas plurales que utilicen medios culturalmente adecuados en los contextos apropiados—.

    • En este esfuerzo, los desarrolladores buscan asesoría y evaluación independiente de comunidades religiosas.

  • Los desarrolladores y financiadores apoyan la investigación y el aprendizaje sobre los efectos de la IA en el florecimiento humano, incluyendo estrategias para mitigar sus posibles consecuencias negativas.

  • Los reguladores otorgan protecciones legales a empresas y organizaciones que cumplan estos estándares, estimulando la innovación y el despliegue ético de la IA.

  • Los reguladores fortalecen las responsabilidades legales contra empresas y organizaciones que no implementen estos estándares, para desalentar la innovación y el despliegue no éticos.

Proteger contra la proliferación de desigualdad

  • Los desarrolladores realizan evaluaciones de impacto de los sistemas de IA para identificar y abordar posibles efectos negativos en poblaciones vulnerables económica, social u otras.

  • Los desarrolladores implementan principios de diseño que aseguren accesibilidad a personas con diversas capacidades.

  • Los desarrolladores aplican principios para que los sistemas de IA estén disponibles en múltiples lenguajes y niveles de alfabetización.

  • Reguladores, financiadores, desarrolladores y operadores colaboran para estudiar y abordar las disrupciones que la IA está imponiendo a escala, incluyendo empleo y capital humano.

Actualizar los protocolos periódicamente

  • Los desarrolladores y reguladores revisan, reevaluan y actualizan regularmente los protocolos para reflejar los principales avances en capacidades de la IA.

Como dijo el papa Benedicto XVI: “Sin verdad, sin confianza y sin amor por lo que es verdadero, no hay conciencia social ni responsabilidad, y la acción social termina sirviendo intereses privados y la lógica del poder, resultando en fragmentación social”.

Hacen un llamado a todas las personas —de fe, de innovación, de liderazgo— a abrazar la verdad de la dignidad humana y a hacer su parte para ayudar a que la IA mejore a la humanidad.

Diversas firmas

(traducción propia)

descargar documento original en inglés

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Pulsa en la imagen para más información

Curso Sexo, Género y Transgénero

Podrás hacerlo a tu ritmo

Curso de Iniciación a la Bioética

Podrás hacerlo a tu ritmo

Mi Manual de Bioética

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies