La IA es una amenaza existencial, pero no de la forma que crees

309
VIEWS

 

El auge de ChatGPT y sistemas de inteligencia artificial similares ha ido acompañado de un fuerte aumento de la ansiedad por la IA. Durante los últimos meses, los ejecutivos y los investigadores de seguridad de la IA han estado ofreciendo predicciones, denominadas “P(doom)“, sobre la probabilidad de que la IA provoque una catástrofe a gran escala.

Las preocupaciones alcanzaron su punto máximo en mayo de 2023 cuando la organización sin fines de lucro de investigación y defensa Center for AI Safety emitió una declaración de una oración:

“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como pandemias y guerra nuclear”. 
La declaración fue firmada por muchos jugadores clave en el campo, incluidos los líderes de OpenAI, Google y Anthropic, así como dos de los llamados “padrinos” de la IA: Geoffrey Hinton y Yoshua Bengio.

Podría preguntarse cómo se supone que se desarrollan tales miedos existenciales. Un escenario famoso es el experimento mental del “maximizador de clips de papel” articulado por el filósofo de Oxford Nick Bostrom. La idea es que un sistema de inteligencia artificial encargado de producir tantos clips de papel como sea posible podría hacer todo lo que pudiera para encontrar materias primas, como destruir fábricas y causar accidentes automovilísticos.

Una variación que requiere menos recursos tiene una IA encargada de obtener una reserva para un restaurante popular que apaga las redes celulares para evitar que otros clientes obtengan una mesa.

Suministros de oficina o cena, la idea básica es la misma: la IA se está convirtiendo rápidamente en una inteligencia alienígena, buena para lograr objetivos pero peligrosa porque no necesariamente se alineará con los valores morales de sus creadoresY, en su versión más extrema, este argumento se transforma en ansiedades explícitas acerca de que las IA esclavicen o destruyan a la raza humana.

Daño real

En los últimos años, encargados del Centro de Ética Aplicada de UMass Boston han estado estudiando el impacto del compromiso con la IA en la comprensión que las personas tienen de sí mismas, y se cree que estas ansiedades catastróficas son exageradas y están mal dirigidas.

Sí, la capacidad de la IA para crear videos y audios profundamente falsos y convincentes es aterradora, y las personas pueden abusar de ella con malas intenciones. De hecho, eso ya está sucediendo: los agentes rusos probablemente intentaron avergonzar al crítico del Kremlin, Bill Browder, atrapándolo en una conversación con un avatar del expresidente ucraniano Petro Poroshenko. Los ciberdelincuentes han estado utilizando la clonación de voz de IA para una variedad de delitos, desde atracos de alta tecnología hasta estafas ordinarias.

Los sistemas de toma de decisiones de la IA que ofrecen aprobación de préstamos y recomendaciones de contratación conllevan el riesgo de sesgo algorítmico, ya que los datos de capacitación y los modelos de decisión en los que se ejecutan reflejan prejuicios sociales de larga data.

Estos son grandes problemas y requieren la atención de los formuladores de políticas. Pero han existido por un tiempo, y no son cataclísmicos.

No en la misma liga

La declaración del Centro para la Seguridad de la IA agrupó a la IA con las pandemias y las armas nucleares como un riesgo importante para la civilización.

Hay problemas con esa comparación.

El COVID-19 resultó en casi 7 millones de muertes en todo el mundo, provocó una crisis de salud mental masiva y continua y creó desafíos económicos, incluida la escasez crónica de la cadena de suministro y la inflación galopante.

Las armas nucleares probablemente mataron a más de 200.000 personas en Hiroshima y Nagasaki en 1945, se cobraron muchas más vidas de cáncer en los años siguientes, generaron décadas de profunda ansiedad durante la Guerra Fría y llevaron al mundo al borde de la aniquilación durante la crisis de los misiles en Cuba, en 1962. También han cambiado los cálculos de los líderes nacionales sobre cómo responder a la agresión internacional, como ocurre actualmente con la invasión rusa a Ucrania.

La IA simplemente no está cerca de obtener la capacidad de hacer este tipo de daño. El escenario del clip y otros similares son ciencia ficción. Las aplicaciones de IA existentes ejecutan tareas específicas en lugar de emitir juicios amplios. La tecnología está lejos de ser capaz de decidir y luego planificar los objetivos y metas subordinadas necesarias para cerrar el tráfico con el fin de conseguirle un asiento en un restaurante, o volar una fábrica de automóviles con el fin de satisfacer su antojo de clips de papel.

La tecnología no solo carece de la complicada capacidad de juicio multicapa que está involucrada en estos escenarios, sino que tampoco tiene acceso autónomo a suficientes partes de las infraestructuras críticas para comenzar a causar ese tipo de daño.

Que significa ser humano

En realidad, existe un peligro existencial inherente al uso de la IA, pero ese riesgo es existencial en el sentido filosófico es más que apocalíptico. La IA en su forma actual puede alterar la forma en que las personas se ven a sí mismas. Puede degradar habilidades y experiencias que las personas consideran esenciales para ser humanos.

Por ejemplo, los humanos son criaturas que emiten juicios. Las personas sopesan racionalmente los detalles y hacen juicios diarios en el trabajo y durante el tiempo libre sobre a quién contratar, quién debería obtener un préstamo, qué ver, etc. Pero cada vez más de estos juicios están siendo automatizados y asignados a algoritmos. El mundo no se acabará. Pero la gente perderá gradualmente la capacidad de hacer estos juicios por sí misma. Cuantas menos se hagan, peor se harán.

O considere el papel del azar en la vida de las personas. Los seres humanos valoran los encuentros fortuitos: encontrarse en un lugar, con una persona o una actividad por accidente, sentirse atraídos por él y apreciar retrospectivamente el papel que jugó el accidente en estos hallazgos significativos. Pero el papel de los motores de recomendación algorítmica es reducir ese tipo de casualidad y reemplazarlo con planificación y predicción.

Finalmente, considere las capacidades de escritura de ChatGPT. La tecnología está en proceso de eliminar el papel de las tareas de escritura en la educación superior. Si lo hace, los educadores perderán una herramienta clave para enseñar a los estudiantes a pensar críticamente.

Muerto no, pero si disminuido

Entonces, no, la IA no volará el mundo. Pero la aceptación cada vez más acrítica de ella, en una variedad de contextos estrechos, significa la erosión gradual de algunas de las habilidades más importantes de los humanos. Los algoritmos ya están socavando la capacidad de las personas para emitir juicios, disfrutar de encuentros fortuitos y perfeccionar el pensamiento crítico.

La especie humana sobrevivirá a tales pérdidas. Pero la forma de existir se empobrecerá en el proceso. Las fantásticas ansiedades en torno al próximo cataclismo de la IA, la singularidad, Skynet, o como se pueda pensar, oscurecen estos costos más sutiles. Recuerde las famosas líneas finales de TS Eliot de “The Hollow Men“:

“Así es como termina el mundo“, escribió, “no con una explosión sino con un gemido“.

 

Publicado por Mercator, el 20 de julio de 2023 AI is an existential threat – just not the way you think

 

Comments 1

  1. Nelida Cusumano says:

    La AI no es un peligro en si misma, es una herramienta creada por el hombre, por lo tanto este es el único responsable de sus resultados.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Curso de Iniciación a la Bioética

Podrás hacerlo a tu ritmo

Mi Manual de Bioética

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies