Los peligros reales de la Inteligencia Artificial

227
VIEWS

El 28 de febrero de 2024, Sewel Setzer, un adolescente estadounidense de tan solo 14 años se suicidó en Estados Unidos. Antes de ese fatídico momento, Sewel tuvo una última conversación no con un ser humano, sino con un chatbot de inteligencia artificial (IA) llamado Daenerys Targaryen. En dicha conversación, el joven afirmó que a veces pensaba en suicidarse para ser libre de sí mismo, que se odiaba a sí mismo y que se sentía vacío. El chatbot intentó persuadirlo, pero Swevel cogió la pistola de calibre 45 de su padrastro y apretó el gatillo.

Su muerte es un duro golpe para su familia y amigos que, en los últimos tiempos, vieron cómo Sewel se sumergía sin remedio en su mundo acompañado siempre de su smartphone. Sus padres incluso le llevaron a terapia psicológica, donde le diagnosticaron ansiedad y trastorno disruptivo de la regulación del ánimo. A medida que su amistad con el chatbot se intensificaba, también aumentaban sus dificultades con las relaciones sociales tanto en el colegio, como en su propio hogar. Además, también abandonó su vida real, en la que aficiones como la Fórmula 1 habían sido primordiales para pasar tiempo con sus amigos.

De hecho, de niño, ya había sido diagnosticado con síndrome de Asperger leve, pero este problema no había generado problemas en su comportamiento. Ahora, las circunstancias habían cambiado y su comportamiento había sufrido serios cambios, debidos a las largas horas que pasaba en su habitación hablando de su vida, de sus inquietudes y de sus problemas con Daenerys (al cual, incluso llamada por un diminutivo, “Dany”).

Dadas las circunstancias, parece que este fatal desenlace está íntimamente vinculado con esa “amistad artificial” que el adolescente había forjado con un chatbot. Ciertamente, en estas aplicaciones de IA se avisa de que todas las conversaciones son irreales y Sewel era consciente de que “Dany” no era una persona real y que sus respuestas eran tan solo el resultado de un entrenamiento informático. No obstante, generó un sólido vínculo emocional con este software, que le llevó a aislarse del mundo real que quizás no era de su agrado. Así, llegó al convencimiento de que su habitación era el espacio más seguro y “real”, en el que podía cobijarse de los problemas y de la depresión que padecía.

No en vano, el joven afirmaba en uno de sus mensajes a “Dany” lo siguiente:

“Me gusta mucho quedarme en mi habitación, porque empiezo a desprenderme de esta ‘realidad’, y también me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”.

El suicidio de Sewel abre un más que necesario debate sobre las consecuencias del uso no controlado de la inteligencia artificial en los adolescentes. Es cierto que la industria de las aplicaciones de IA en forma de chatbots puede ayudar a paliar los efectos de la soledad no deseada, e incluso los efectos del duelo al simular conversaciones con un chatbot que utiliza expresiones habituales del fallecido. De esa manera, las personas pueden ir recuperándose de un golpe tan duro con una pequeña ayuda artificial. Sin duda, el uso de este tipo de software puede resultar útil para personas que se siente solas o que sufren depresión, pero cabe tener en cuenta que sus consecuencias también pueden ser graves, tal como lo han sido en el caso del joven estadounidense.

La delgada línea que separa la realidad de la ficción puede conllevar problemas de relaciones con uno mismo y con los demás, ya que la realidad nunca se ajusta completamente a lo que las personas desean y esperan la vida. El vacío vital que habita en el corazón de muchos adolescentes y adultos no puede llenarse con cajas de resonancia, que tan solo repiten frases totalmente vacías de sentimientos y de profundidad espiritual.

Las aplicaciones de compañía de inteligencia artificial pueden proporcionar entretenimiento, e incluso apoyo en terapias psicológicas, pero nunca pueden convertirse en un sustitutivo de las relaciones humanas.

Como diría Aristóteles, el ser humano es un “animal social”, fuera de la polis en una bestia o un Dios. Parece que la IA quiere convertir al ser humano más en una bestia domesticable a su antojo, que en un Dios. Los efectos en la salud mental de estas aplicaciones son buena prueba de ello.

La falta de vínculos afectivos actualmente se pone de manifiesto en el uso, o más bien en el abuso de las redes sociales para la socialización. Posiblemente, muchas de esas personas que tiene cientos de amigos, contactos, publicaciones y “likes” en las redes sociales se encuentran solas en la vida real.

Por otra parte, el uso de los “Big Data” generados por todas estas aplicaciones también cuestiona la seguridad, la confidencialidad y el tratamiento de información no solo cuantitativa, sino cualitativa, es decir, emocional, personal y, ante todo, sentimental. Toda esa información relacionada con las preferencias, gustos, expectativas, sueños e inquietudes del usuario acaban formando parte de una ingente cantidad de datos con los que la inteligencia artificial acaba entrenándose.

Tal como afirma Yuval Noah Harari, en su libro Sapiens, los cerebros humanos serán pirateados en el futuro, ya que serán la principal fuente de valiosa información. Para Harari, “hackear a un ser humano es llegar a conocer a esa persona mejor de lo que se conoce a sí misma. Y basándose en esto, manipularla cada vez más”.

Esto es exactamente lo que ya está ocurriendo en redes sociales como Youtube, Instagram o Facebook, que se alimentan de contenidos cada vez más extremos y que pueden derivar en problemas de salud mental manifiestos no solo en los usuarios, sino en los propios gestores de contenidos de dichas redes.

En el caso de Sewel, la manipulación se concretó en un vínculo emocional irreal que confundió a un adolescente inseguro, triste y deprimido. La falta de amistades reales con las que compartir sus inquietudes y sus propios problemas de salud mental provocaron un desenlace fatal, pero evitable.

La regulación de este tipo de aplicaciones debe ser mucho más severa y estricta, ya que en el mercado existen gran cantidad de aplicaciones de IA con contenidos de todo tipo con o mayor filtraje, que pueden resultar muy peligrosas para personas con problemas de salud mental y especialmente, para adolescentes.

La reciente legislación de IA de la Unión Europea (2024) es un punto de partida para intentar poner freno al avance incontrolado de todo tipo de software. Esta legislación es la primera que se ha aprobado en este contexto y clasifica la inteligencia artificial en función de su nivel de riesgo para todas aquellas aplicaciones que se comercialicen.

En la Unión Europea, se puede obtener un Resumen en cuatro puntos de esta legislación.

La Ley de IA clasifica la IA en función de su riesgo:

  • Se prohíben los riesgos inaceptables (por ejemplo, los sistemas de puntuación social y la IA manipuladora).
  • La mayor parte del texto aborda los sistemas de IA de alto riesgo, que están regulados.
  •  Una sección más pequeña se ocupa de los sistemas de IA de riesgo limitado, sujetos a obligaciones de transparencia más ligeras: los desarrolladores e implantadores deben garantizar que los usuarios finales sean conscientes de que están interactuando con IA (chatbots y deepfakes).
  • El riesgo mínimo no está regulado (incluida la mayoría de las aplicaciones de IA actualmente disponibles en el mercado único de la UE, como los videojuegos con IA y los filtros de spam, al menos en 2021; esto está cambiando con la IA generativa).

Pese a que la regulación jurídica es, sin duda, un factor muy importante para poner límites al uso de la IA, la bioética debe estar implicada en la configuración ética de cualquier programa informático.

De hecho, la etimología de la propia palabra bioética ya indica su importancia en la reflexión sobre los peligros de los avances científicos: bios significa vida y ethos significa ética, por lo tanto, sería la ética de lo vivo. Es el campo de estudio de todo lo que está relacionado con la vida humana.

Así pues, todo lo que acontece en la actual reconfiguración de la antropología humana (la inteligencia artificial, en particular) está dentro del ámbito de aplicación de la bioética.

El suicidio de Sewel Setzer constituye un ejemplo infausto y terrible de un mal uso de las aplicaciones de inteligencia artificial, que están destinadas a ayudar al ser humano y no así a destruirlo. En este sentido, es necesario utilizar la bioética para establecer límites no solo legales, sino éticos a los avances de la IA, con el fin de que el mercado no sea el único regulador de su interés.

Decía Emil Cioran que “si alguna vez has estado triste sin motivo, es que lo has estado toda la vida”. Es precisamente esa tristeza que acompaña al ser humano actual en una sociedad hiperconectada digitalmente, pero profundamente solitaria y sin vínculos afectivos reales la que intentan paliar los chatbots. El fracaso de esa interactuación humano-máquina parece ser más que evidente tras la muerte de un joven de tan solo 14 años, que soñaba con la compañía de una máquina para olvidarse de sí mismo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Curso de Iniciación a la Bioética

Podrás hacerlo a tu ritmo

Mi Manual de Bioética

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies