Robots cuidadores

119
VIEWS

Hace unos meses, en un restaurante, el escritor del presente articulo se llevó una gran sorpresa al comprobar que el camarero que me traía el plato era un robot. Era sigiloso y tenía una voz muy agradable. No sustituía a los camareros, sino que les ayudaba a transportar los platos a cada mesa. Se había convertido en un asistente más.

Sin embargo, la introducción de la Inteligencia Artificial (IA) en otros ámbitos más propiamente “humanos” como el cuidado de ancianos plantea interrogantes éticos insoslayables.

En Asia, la convivencia entre seres humanos y robots hace tiempo que se ha normalizado, en especial, el uso de robots en residencias de ancianos. En China y Japón, el envejecimiento de la sociedad ha acelerado la transición “robótica” del cuidado humano. De hecho, Japón prevé una escasez de un millón de cuidadores en los próximos años, y ya se ha adelantado a algunos de los efectos de la soledad creando robots que emulan mascotas.

En España, existen diversos proyectos en marcha para utilizar robots en la asistencia de ancianos y personas dependientes. El proyecto Clothilde del Instituto de Robótica e Informática Industrial (CSIC-UPC) es una buena muestra de ello. Su objetivo es crear máquinas capaces de manipular prendas, es decir, objetos deformables. La investigadora principal, Carme Torras, define su campo de investigación como “robótica asistencial” y no social. Es decir, las tareas de los robots son “domésticas”, y consisten en hacer camas en hospitales, recoger ropa usada o ayudar a personas con movilidad reducida a vestirse.

El proyecto Clothilde cuenta con un equipo multidisciplinar formado por matemáticos, informáticos, ingenieros industriales y filósofos. La figura del filósofo es crucial en este tipo de proyectos, puesto que los retos éticos del ámbito asistencial no son pocos. Es evidente que no es posible vivir de espaldas a los avances de la Cuarta Revolución Industrial, pero es necesario analizar el “coste-beneficio” de los mismos.

A nivel ético, es posible mencionar algunos aspectos, tales como:

  1. Consecuencias de la sustitución del ser humano (a nivel laboral con destrucción de empleo, industrial y social).
  2. Dependencia de las máquinas con el consiguiente deterioro cognitivo.
  3. El papel de los “robots cuidadores” y su interacción social sin vínculos afectivos ni familiares.
  4. Desarrollo de un estatuto especial para la inteligencia artificial: ¿Se considerarán en un futuro “sujetos de derechos”?
  5. Deshumanización del ser humano y posible hibridación en un futuro entre hombre-máquina.

Es importante establecer límites éticos al uso de la inteligencia artificial en el ámbito asistencial. El binomio formado por el “cuidado humano” y “cuidado robótico” puede ser una buena solución intermedia para paliar las carencias de la sanidad pública. Pero, dejar a los ancianos, sobre todo los casos más vulnerables, en manos de robots, también puede ser contraproducente no solo a nivel ético, sino psicológico.

Tal como afirma Torra, “con personas mayores, el principal problema es el aislamiento, que la persona crea que la máquina se preocupa por ella, siente afecto y le cuida. Eso le puede llevar a descuidar su vida social, aunque en una residencia, donde hay muchas personas, tener una especie de mascota puede ser beneficioso”.

Existe el riesgo de que puedan confundirse los vínculos afectivos y de que se cree una realidad social inexistente, solo formada por el robot.

El impacto emocional de estos “asistentes artificiales” impregna el debate sobre la programación “ética” de los robots. Su materialización sería deseable, pero es sumamente complicada.

En primer lugar, habría que llegar a un acuerdo sobre qué valores se desea priorizar: la justicia, la solidaridad, la empatía, la equidad. Pero:

¿Es realmente posible universalizar valores éticos?

¿Los valores son universales o bien están determinados por cuestiones culturales e incluso religiosas en algunos casos?

En segundo lugar, cabe plantearse los sesgos “humanos” que se pueden introducir en las máquinas al programarlas, si no se lleva a cabo un análisis crítico de la información y los Big Data que se les proporciona. No se puede olvidar que los robots toman decisiones a partir de ellos.

En tercer lugar, dentro de estos “sesgos” humanos se enmarca la ética. Es necesario decidir qué dirección ética se va a dar al comportamiento de las máquinas, lo que supone convertirlas en “máquinas morales”, que decidirán en función de una ética utilitarista o deontológica.

Un ejemplo es el caso de los vehículos autónomos y la  posibilidad que tienen de decidir en un accidente entre matar a una o varias víctimas en función de su programación “ética”.

Debate ético

En este contexto, el uso de robots asistenciales abre un debate ético de calado presidido por la vulnerabilidad. Es el rasgo antropológico que más marca al ser humano en el reino animal. El ser humano es profundamente vulnerable, y como diría Hans Jonas, está dotado de una libertad “indigente”, siempre en dependencia de su entorno para sobrevivir.

Por ello, tanto la vulnerabilidad antropológica propia de la condición humana y universal, como la vulnerabilidad social relacionada con el contexto histórico, social, ambiental o económico demandan el “cuidado” y la solidaridad del resto de seres humanos o “no humanos”.

Pero, no es ni puede ser lo mismo que un robot realice tareas domésticas, como recoger la ropa o hacer la cama, a que interactúe socialmente con un humano. Como dice el neurólogo Antonio Damasio, “los sentimientos son, de arriba abajo, fenómenos conjuntos del cuerpo y el sistema nervioso y son determinantes en la toma de decisiones”. Los robots nunca podrán disponer de ellos, lo que los convierte en “seres pensantes”, pero no en “seres sintientes”.

Las relaciones de cuidado que se puedan establecer entre un humano y un robot asistencial están vacías de sentimientos, y, por ende, vacías de contenido. Como en el caso de los “chatbots” destinados a personas en duelo, la interacción humano-máquina puede resultar peligrosa si no se tiene en cuenta ese “vacío sentimental”, que deriva asimismo en problemas éticos, psicológicos e inclusos legales.

El cuidado “artificial” plantea la pregunta de si es ético dejar en manos de algoritmos el cuidado de personas vulnerables, con una autonomía reducida tanto desde un punto de vista bioético (capacidad de tomar decisiones autónomas no controladas por otros), como físico, cognitivo y psicológico.

La respuesta parece obvia, pero no lo es tanto. El envejecimiento de la población, la soledad, la vulnerabilidad e incluso la falta de personal cualificado son factores clave para entender el rápido avance de la robótica asistencial.

Por otra parte, el trato que algunos cuidadores profesionales dispensan a ancianos en residencias o domicilios no superaría un examen ético de mínimos. La irrupción de la inteligencia artificial en el ámbito asistencial puede ser también una oportunidad para analizar en profundidad el tipo de cuidados que están recibiendo las personas vulnerables, y el tipo de cuidados que se deberían ofrecer, regidos por valores éticos como la empatía y la solidaridad, y por actitudes psicológicas tan simples como la “escucha activa”.

Pero, la realidad es que el “cuidado humano” está cada vez más precarizado e invisibilizado, y parece irremediablemente condenado a ser sustituido por la inteligencia artificial. La vulnerabilidad presidió los tiempos de pandemia. No en vano, los cuidadores profesionales y no profesionales fueron fundamentales para proteger a los más vulnerables a riesgo de perder su propia vida. Tal como decía Byung-Chul Han:

“La muerte no es democrática. La covid-19 no ha cambiado nada al respecto. La muerte nunca ha sido democrática…Con la covid-19 enferman y mueren los trabajadores pobres de origen inmigrante en las zonas periféricas de las grandes ciudades. Tienen que trabajar”.

La pospandemia pretende dejar atrás la presencialidad del cuidado, emulando quizás el éxito del teletrabajo, la telemedicina y la teleasistencia. Sin embargo, para no perder la dimensión ética en este proceso de robotización, en este nuevo formato asistencial debería aplicarse una “ética del cuidado” centrada en la vulnerabilidad de las personas como un aspecto esencial de la vida individual y colectiva.

No en vano, Joan Tronto, figura clave de esta corriente, afirma que “el cuidado puede devenir un valor público, un capítulo imprescindible de la agenda política”. Tronto defiende virtudes tales como “attentiveness”, capacidad de prestar atención a los demás y “responsiveness”, capacidad de dar respuesta al otro.

La sociedad digital no parece atender a ninguna de ellas, porque está más centrada en la libertad individual y en la satisfacción narcisista de los deseos más inmediatos con un solo “clic”. En esta tesitura, parece inevitable que la paradoja de que el “cuidado humano” esté en manos de máquinas se convierta en una realidad incómoda.

Comments 1

  1. Totalmente de acuerdo. Aquí va el link a una conferencia que dí sobre estos temas luego de una investigación que hice en Alemania, por si la quieren ver y difundir: https://www.youtube.com/watch?v=zjDxdPLhKgM&ab_channel=ColegiodeAbogadosdelUruguayCAU
    Saludos y gracias por su postura tan humanitaria.
    Prof. Dr. Ac. Dr. Europaeus Pedro Montano (pmontano@scelzaymontano.com .uy)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Curso de Iniciación a la Bioética

Podrás hacerlo a tu ritmo

Mi Manual de Bioética

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies