El pasado 14 de septiembre, el Centro de Cultura Contemporánea de Barcelona (CCCB) acogió una interesante charla titulada “Los caminos de la inteligencia artificial”. Los ponentes eran todos ellos expertos en el campo de la inteligencia artificial (IA) y pertenecientes al Centro de Supercomputación de Barcelona (BSC).
Sin embargo, en el debate también se hizo hincapié en las cuestiones éticas que van surgiendo a medida que los productos de la IA son cada vez más potentes. Ese ha sido el caso del ChatGPT, un modelo de lenguaje entrenado con grandes cantidades de textos de Internet, que hace unos meses parecía ser la panacea y que, ahora, parece haberse desvanecido. El motivo, tal como indicaron los expertos, es la falta de Big Data para seguir entrenando a la máquina, así como los dudosos resultados que ha tenido.
En esta línea, hace unos meses este blog publicó un interesante artículo sobre el uso en atención sanitaria de ChatGPT para realizar tareas rutinarias como redactar certificados de enfermedad o cartas de pacientes para seguros médicos. Pero también se apuntó la posibilidad de que en un futuro se utilice para actividades más importantes como el triaje (elegir qué pacientes acceden a camas de cuidados intensivos, por ejemplo). Cabe recordar que el triaje es una actividad con ramificaciones éticas muy importantes, tal como se puso de manifiesto en la pandemia del COVID-19, donde la delgada línea entre la vida y la muerte la marcó el acceso a una cama en cuidados intensivos.
Pero no toda la actividad de ChatGPT es digna de elogio. En el debate del CCCB, también se expusieron varios problemas que se han detectado recientemente entre los usuarios de ChatGPT. Es el caso de una empresa que preguntó sobre temas de su futura estrategia comercial proporcionando información confidencial, la cual llegó a manos de la competencia.
Este es un buen ejemplo de violación de la privacidad y de uso indebido de los Big Data proporcionados sin control ni criterio, y que es uno de los potenciales riesgos éticos de este tipo de máquinas. Es posible suponer que si esto ocurre en el ámbito empresarial, las consecuencias éticas en el entorno sanitario pueden ser de enorme gravedad. La primera de ellas sería:
- La discriminación genética basada en datos médicos que podrían condicionar la vida laboral, personal e incluso económica de los ciudadanos más vulnerables. Esta vulnerabilidad médica quedaría al descubierto, IA mediante, para seguros médicos, departamentos de recursos humanos, bancos e incluso, quizás aplicaciones de búsqueda de pareja, cercenando las posibilidades de muchos ciudadanos de disfrutar de una vida plena.
- La segunda de ellas sería la fiabilidad y veracidad de una información altamente sensible que podría ser inexacta y sesgada o incluso falsa, pero que se habría aceptado por la capacidad mimética de las máquinas.
La gravedad de introducir en la sociedad una herramienta como ChatGPT, tan útil como peligrosa, debe ser analizada desde un punto de vista ético, máxime cuando la ciudadanía no dispone ni de la formación ni de la información adecuadas para su uso. Todos las máquinas en forma de electrodomésticos, móviles u ordenadores disponen de un manual de instrucciones. Del mismo modo, los productos de la inteligencia artificial no solo como ChatGPT, sino como el robot aspirador Roomba, los smartphones que indican la localización geográfica de los móviles o los asistentes como Alexa deben advertir de que la gestión de los datos del usuario puede vulnerar sus propios derechos (privacidad, protección de datos).
No en vano, todos esos Big Data que cada día se ofrecen gratuitamente son la principal fuente de alimentación de la IA; sin ellos, sería simplemente una máquina vacía de contenido. Como dice Mateo Valero, director del BSC, la inteligencia artificial consiste en la multiplicación de matrices y en la gestión de datos. Sin ambos elementos, simplemente no existiría. Pero su avance inexorable es un hecho y puede resultar muy difícil de manejar desde una perspectiva ética.
Un buen ejemplo de ello es el reciente escándalo ocurrido en Almendralejo (Extremadura) por las imágenes de más de 20 niñas y jóvenes desnudas generadas mediante inteligencia artificial. Los padres de las niñas afectadas han formado un grupo de apoyo en el pueblo para poder afrontar las consecuencias personales, familiares y psicológicas de esta situación para las menores afectadas. La policía está investigando a 11 jóvenes de la localidad, también menores de edad (entre 12 y 14 años), que parecen estar involucrados en los hechos. Tal como afirma una de las madres afectadas, la preocupación es doble: “Si tienes un hijo, te preocupas de que pueda estar metido en algo como esto; si tienes una hija, te preocupas aún más, porque es un acto de violencia”.
Desafortunadamente, el caso de Almendralejo no es el único y se suma a una larga lista de acciones inmorales llevadas a cabo con la cooperación de la inteligencia artificial. Sin embargo, resulta especialmente grave cuando hay menores implicados que todavía no tienen plena consciencia de las consecuencias de sus actos, pero que, sin embargo, disponen de un acceso ilimitado a redes sociales, app, y todo tipo de aplicaciones informáticas. Precisamente, el acceso a tecnologías como ChatGPT y a muchas otras es una de las principales cuestiones a las que es necesario enfrentarse con altura ética.
El desafío que plantea la llegada de la inteligencia artificial no solo debe regularse desde el derecho, sino también y principalmente desde la ética. Es obvio que es necesario establecer un marco legal para el uso debido de las nuevas tecnologías, pero es igualmente preciso educar a la ciudadanía en el uso de las mismas para poder gestionar la cesión de datos, el daño a terceros, etc.
Además, es urgente habilitar la formación necesaria tanto para menores (especialmente importante) como para adultos de este nuevo tipo de productos, que amenazan con cambiar la visión del mundo radicalmente. Es preciso prepararse para este cambio antropológico, social e incluso económico (por la desaparición de muchos puestos de trabajo ya totalmente robotizados) no solo con información, sino con formación tecnológica para saber quién debe tener acceso (todos los países, no así solo los países ricos), cómo debe gestionarse (privacidad de datos, sobre todo, sanitarios), cuándo debe utilizarse (gestión del tiempo de uso)
y en qué situaciones su uso puede ser beneficioso (entorno sanitario, empresarial).
En este sentido, una de las participantes en el debate del CCCB, Karina Gibert, incidió en la necesidad de realizar cursos de formación en el uso de aplicaciones informáticas, porque es un error poner a disposición de la ciudadanía una tecnología tan potente como ChatGPT sin un manual de instrucciones, que oriente al usuario sobre las consecuencias de proporcionar datos sin el menor rubor. Es un error, asimismo, permitir que los menores tengan acceso a aplicaciones que pueden resultar divertidas, entretenidas e incluso educativas, pero que utilizadas incorrectamente, pueden generar problemas éticos de primera magnitud como ha sido el caso de Almendralejo.
En esta sociedad tecnológica, donde todo ocurre con una velocidad inusitada, la reflexión ética sosegada es más que nunca necesaria. La tormenta digital ha borrado la inocencia del rostro de las niñas extremeñas que han quedado al desnudo tanto física como espiritualmente por la inteligencia artificial.
Como dice el filósofo surcoreano Byung-Chul Han, la obligación de producir transforma la inactividad en una forma de actividad para explotarla. Así, el ocio ha dejado de ser una forma de inactividad, de ayuno espiritual creador, para convertirse en una forma más de seguir explotando al ser humano y por supuesto, a los datos que pueda ofrecer a las máquinas.
Relataba Walter Benjamin en una narración que un pintor desaparecía dentro de su propio cuadro ante la mirada atónita de sus amigos que le veían desaparecer dentro del bosque que él mismo había pintado. La Inteligencia Artificial amenaza con hacer lo mismo con el ser humano, su creador, pero no será una desaparición con tintes románticos como las del cuento de Benjamin, sino una desaparición forzosa de la conciencia ética en una sociedad distópica de difícil control humano. El transhumanista Nick Bostrom está de acuerdo y considera que los humanos correrán un gran peligro si no entienden bien los peligros de la inteligencia artificial, porque a largo plazo los algoritmos superarán a la inteligencia humana en todos sus registros.
No parece que Bostrom tenga en cuenta los últimos desmanes de estos potentes algoritmos que han generado problemas tan graves como los relatados en el presente artículo. El hombre no solo es un generador de datos, un animal laborans, sino un sujeto ético dotado de virtudes éticas necesarias para la vida en sociedad. La irrupción del poder de las máquinas amenaza con convertir al ser humano en un simple portador de datos con conexión digital, pero sin conexión ética con sus actos.
Esta situación demanda una ética digital que incorpore una programación ética en las nuevas tecnologías y que genere un intenso debate en la sociedad para evitar un giro antropológico radical y destructivo. Decía Aristóteles que las virtudes éticas, es decir, el comportamiento moralmente aceptable del ser humano se adquiría mediante la costumbre, mediante el entrenamiento en la virtud con actos buenos. Por analogía, solo un entrenamiento ético de las máquinas podrá evitar, en último término, que su deriva sea simplemente tecnológica y profundamente inmoral.
Totalmente de acuerdo. Las Humanidades salvarán el mundo…