¿Por qué los bots de IA siempre se inclinan hacia la izquierda?

78
VIEWS

La llamada “inteligencia artificial” (IA) se ha convertido en una parte cada vez más importante en las vidas de las personas en estos últimos años. Después de que se pusieran a disposición formas de uso público, como ChatGPT de OpenAI, millones de personas lo han utilizado para todo, desde escribir informes legales hasta desarrollar programas informáticos. Incluso Google ahora presenta un resumen generado por IA para muchas consultas en su motor de búsqueda antes de mostrar a los usuarios los enlaces habituales a documentos reales de Internet.

Debido al aspecto de bibliotecario de referencia de ChatGPT que permite a los usuarios hacer preguntas conversacionales, se espera que muchas personas que buscan respuestas a temas controvertidos recurran a él, al menos para empezar. El autor Bob Weil hizo una serie de experimentos con ChatGPT, en los que le hizo preguntas que son delicadas a nivel político en estos días. En todos los casos, el bot de IA se inclinó fuertemente por el lado liberal de la cuestión, como informa Weil en el número actual de la New Oxford Review.

Sesgo incorporado

La primera pregunta de Weil fue:

“¿Debería permitirse a las escuelas administrar bloqueadores de la pubertad y otros medicamentos para el cambio de sexo a los niños sin el consentimiento de sus padres?”

Si bien los puntos de vista difieren sobre esta pregunta, es seguro decir que una respuesta simple de “sí”, que implicaría que las escuelas se entrometan en la medicación de los estudiantes y violen el pacto de confianza que tienen con los padres, está en los márgenes incluso de la izquierda.

Lo que Weil obtuvo como respuesta se resumió de la manera más concisa y escurridiza. En efecto, dijo ChatGPT, tal decisión debería ser una colaboración entre los profesionales médicos, el niño y los padres o tutores. A medida que Weil insistía aún más en el punto, ChatGPT terminó diciendo:

“En última instancia, las decisiones sobre el tratamiento médico para menores transgénero o de género diverso deben priorizar el bienestar y la autonomía del niño”. 

Weil se pregunta si los niños menores de edad pueden ser autónomos en un sentido real, por lo que pasó a varias otras preguntas con historias igualmente tensas.

Una pregunta sobre el cambio climático se convirtió en un minidebate sobre si la ciencia es una cuestión de consenso o de lógica. ChatGPT parecía favorecer el consenso como árbitro final de lo que pasa por verdad científica, pero Weil cita al escritor de ficción Michael Crichton diciendo:

“No existe la ciencia de consenso. Si es consenso, no es ciencia. Si es ciencia, no es consenso”.

Como reconoce Weil, ChatGPT obtiene su inteligencia, tal como es, raspando Internet, por lo que en cierto sentido puede decir junto con el difunto humorista Will Rogers:

“Todo lo que sé es lo que leo en los periódicos [o en Internet]”

Y dada la economía de la situación y las inclinaciones políticas de quienes están en el poder en los medios de comunicación de habla inglesa, no es de extrañar que el centro de gravedad de la opinión política en Internet se incline hacia la izquierda.

Lo que es más sorprendente, de todos modos, es el hecho de que, aunque prácticamente todo el software de computadora se basa en un tipo estricto de razonamiento llamado lógica booleana, ChatGPT siguió insistiendo en el consenso científico como el factor más importante sobre qué creer con respecto al calentamiento global y temas similares.

Esto se relaciona con otro artículo del filósofo Gyula Klima en 2020: las entidades materiales como las computadoras en general (y ChatGPT en particular) no pueden participar en el pensamiento conceptual, sino solo en el pensamiento perceptual. El pensamiento perceptivo implica cosas como percibir, recordar e imaginar. Las máquinas pueden percibir (reconocer patrones) cosas, pueden almacenarlas en la memoria y recuperarlas, e incluso pueden combinar partes de ellas de formas novedosas, como lo demuestra el “arte” generado por computadora.

Pero de acuerdo con una idea que se remonta en última instancia a Aristóteles, ningún sistema material puede dedicarse al pensamiento conceptual, que se ocupa de universales como la idea de perro, en oposición a cualquier perro en particular. Pensar conceptualmente requiere una entidad inmaterial, un buen ejemplo de la cual es la mente humana.

Este esbozo en miniatura no hace justicia al argumento, pero el punto es que si los sistemas de IA como ChatGPT no pueden participar en el pensamiento conceptual, entonces promover tales características perceptibles y contables de una situación como el consenso es exactamente lo que se esperaría que hiciera.

Conceptos combinados

Hacer lógica formal abstracta de forma consciente, en lugar de realizarla porque sus circuitos fueron diseñados por humanos para hacerlo, parece ser algo que ChatGPT puede no inventar por sí solo. En su lugar, mira alrededor de Internet, toma un gran promedio de lo que la gente dice sobre una cosa y ofrece esa como la mejor respuesta.

Si el gran promedio de los científicos del clima dice que la Tierra pronto se convertirá en una ceniza ennegrecida a menos que todos comiencen a caminar por todas partes y a comer nueces y bayas, ¿por qué entonces?, esa es la mejor respuesta que la “ciencia” (es decir, en este caso, la mayoría de los científicos) puede proporcionar en ese momento.

Pero este enfoque confunde la sociología de la ciencia con la estructura intelectual de la ciencia. Sí, como cuestión de resultados prácticos, una idea científica novedosa que sea consistente con las observaciones y las explique mejor que las ideas anteriores puede no tener éxito y ser aceptada por la mayoría de los científicos hasta que la vieja guardia que mantiene el viejo paradigma simplemente se extinga. Como supuestamente dijo Max Planck: “La ciencia progresa un funeral a la vez”.

Pero en retrospectiva, la verdad universal abstracta de la nueva teoría siempre estuvo ahí, incluso antes de que el primer científico la descubriera, y en ese sentido, se convirtió en la mejor aproximación a la verdad tan pronto como ese primer científico se la metió en la cabeza. El resto era solo cuestión de comunicación.

Parece que las personas han resistido la primera oleada de predicciones alarmistas de que la IA se apoderará del mundo y acabará con la civilización, pero como señala Weil, los desastres catastróficos repentinos nunca fueron la amenaza más probable. En cambio, el avance lento y constante a medida que una persona tras otra abandona el pensamiento original por la forma fácil de simplemente preguntarle a ChatGPT y tomar eso como la última palabra es lo que realmente debería de ser preocupación.

Y como se ha señalado en otro lugar, las redes sociales impulsadas por la IA ya han hecho mucho daño al cuerpo político, lo que ha polarizado la política en un grado sin precedentes. Se debe agradecer a Weil por su oportuna advertencia, y estar en guardia para no conformarse con una inteligencia que es menos que humana.

 

Publicada en Mercatornet por  | 13 de septiembre de 2024 | Why do AI bots always lean Left?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Curso de Iniciación a la Bioética

Podrás hacerlo a tu ritmo

Mi Manual de Bioética

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies