El doctor Miguel Marcos, profesor de la Universidad de Salamanca, ha creado el denominado “PacienteGPT” junto con el equipo de Bioinformática y Biología Computacional del Grupo BISTE.
Este paciente creado con inteligencia artificial servirá para que cientos de estudiantes de Medicina hagan prácticas de diagnóstico de casos clínicos en la asignatura “Fundamentos de Medicina Clínica”.
En el pasado, estas prácticas se realizaban con actores contratados, es decir, personas de carne y hueso, que respondían a los estudiantes sobre sus síntomas para recrear la consulta médica. Ahora, la creación de este PacienteGPT virtual permitirá realizar muchas más consultas médicas sin depender de actores.
De hecho, todos los casos a los que se deben enfrentar los alumnos han sido creados por el profesor Marcos, ya que puede programar cualquier tipo de sintomatología en el paciente. Los alumnos pueden realizar todo tipo de preguntas al paciente virtual sobre sus síntomas y recibirán la correspondiente respuesta, como ocurriría en la realidad clínica de una consulta.
Este sistema también sirve para recrear situaciones más delicadas, como, por ejemplo, la agresividad de algunos pacientes o incluso casos muy complejos que hasta el momento no se habían abordado.
El actual modulo que está en funcionamiento está muy delimitado en su ámbito de aplicación y sirve para iniciar una conversación ficticia con un paciente virtual con el fin de establecer un diagnóstico por parte del alumno. En el futuro, los investigadores valoran también la opción de que el alumno pueda prescribir tratamiento, así como de disponer de una simulación en 3D para realizar exploraciones físicas.
Esta aplicación de la inteligencia artificial en el sector sanitario es, sin duda, novedosa y muy interesante. Se trataría, no obstante, de la cara más amable de la inteligencia artificial (IA) y de sus productos a los que diariamente acuden miles de personas en el mundo con todo tipo de consultas.
No en vano, el uso de ChatGPT ya ha revolucionado la relación médico-paciente en los últimos tiempos. Tal como señalaba la Dra. Montserrat Esquerda hace algunas semanas, ya existen artículos científicos que analizan este cambio de paradigma en la relación sanitaria.
En uno de dichos artículos publicado por la revista internacional JAMA con el título “When patients Arrive with Answers”, se plantea la situación en la que un paciente se autodiagnostica antes de llegar si quiera a la consulta, dado que trae una lista de hipótesis generadas por ChatGPT y que, según él, se corresponderían con sus síntomas.
Como bien indica la Dra. Esquerda, antes el paciente traía recortes de periódico, comentarios de amigos o familiares o los muy temidos resultados de Google. Ahora, la búsqueda es mucho más exhaustiva, ya que la inteligencia artificial proporciona unos resultados más elaborados y certeros (aunque no siempre).
Es innegable que la dinámica en la relación médico-paciente ha cambiado totalmente gracias a estas nuevas herramientas que pueden ayudar a establecer una relación médico-paciente quizás menos paternalista y más inclusiva.
La consulta podrá convertirse en una oportunidad de establecer un diálogo fructífero y tomar decisiones compartidas si la información es más detallada y comprensible para el paciente. En ningún caso, se puede sustituir la figura del médico humano que es quien realmente puede discriminar la información con certeza y aportar sus conocimientos de la materia. No se trataría, pues, de cuestionar la autoridad clínica, sino de compartirla con el paciente de una manera más honesta, horizontal y empática.
Sin duda, esta es también una aportación positiva de la IA en las consultas sobre temas de salud, pero sus logros también van acompañados de claroscuros. No en vano, tal como ocurrió con Google, la cantidad ingente de Big Data con los que se entrenan estas plataformas virtuales también puede contener sesgos por motivo de raza, etnia, posición social, imprecisiones, e incluso graves errores.
Este ha sido el caso de un ciudadano de Washington que sufrió recientemente graves daños por seguir una sugerencia errónea de ChatGPT.
Este hombre de 60 años estuvo a punto de morir tras seguir un consejo erróneo de ChatGPT, al plantearle sus dudas sobre alternativas a la sal en la dieta. Sin dudarlo, el chatbot le sugirió que sustituyese la sal por bromuro de sodio. Lo compró por internet y lo usó en su dieta diaria durante tres meses sin previa consulta médica. Este medicamento había sido retirado en el pasado por su elevada toxicidad, algo que este hombre desconocía, ya que la IA no se lo había indicado previamente.
La consecuencia de este grave suceso fue su ingreso en el hospital tras el rápido deterioro de su salud con síntomas de paranoia, alucinaciones, dolor de cabeza, erupciones y sed insaciable. Al inicio de su ingreso, el paciente no mencionó que tomaba bromuro de sodio, algo que dificultó el diagnóstico. Posteriormente, lo acabó mencionando y se le diagnosticó una intoxicación por bromuro que podría haberle costado la vida.
Este caso, así como el del joven que se suicidó hace unos meses siguiendo el consejo de un chatbot también en Estados Unidos ponen claramente de manifiesto los peligros reales de la inteligencia artificial.
En el sector sanitario, estos peligros pueden costar vida. Por este motivo, especialmente importante que el uso de herramientas de IA esté bajo un estricto control ético. El uso, o más bien el abuso, de este tipo de sistemas virtuales pueden conducir a un autodiagnóstico erróneo e incluso a una percepción sesgada de la realidad.
La bioética tiene, en este sentido, una amplia responsabilidad presente y futura. Cabe destacar que su fundamento es el respeto a la autonomía del paciente como piedra angular de la relación médico-paciente desde el punto de vista del Principialismo. De hecho, es precisamente el principio de autonomía el que permite obtener el debido “consentimiento informado” por parte del paciente ante cualquier acción médica.
El uso adecuado y éticamente monitorizado de la IA podría contribuir a reelaborar esa relación clínica desde una visión más inclusiva, ética y empática. El acompañamiento del paciente siempre debe realizarse no solo con seres humanos, sino con humanidad, algo que desgraciadamente no siempre es posible. El cambio de paradigma de la relación médico-paciente no puede fundamentarse en la sustitución de los profesionales sanitarios humanos por instrumentos de inteligencia artificial.
Como indica la Dra. Esquerda, la relación terapéutica debe basarse en el diálogo, en una conversación, que incorpore la narrativa de vida del paciente y sea respetuosa con sus valores. Solo desde ese escenario es posible tomar decisiones clínicamente compartidas y humanamente aceptables.
La toma de decisiones en el entorno sanitario siempre debe estar centrada en la dignidad humana y su consecuencia más manifiesta: la vulnerabilidad. Por lo tanto, las decisiones no pueden ni deben ser únicamente algorítmicas, es decir basadas en Big Data, que no son más que datos cuantitativos que no pueden percibir las sutilezas de la naturaleza humana.
La incorporación de la inteligencia artificial como un elemento más en la toma de decisiones debe considerarse positiva desde su capacidad de aportar información, los necesarios datos cuantitativos, que deben ser siempre
contrastados por el facultativo correspondiente.
La parte emocional, es decir, los datos cualitativos propios de la narrativa del paciente por parte del propio paciente o de sus familiares y amigos son los que deben primar siempre en una decisión sanitaria crítica, porque constituyen una aportación única y verdaderamente humana.
Publicada por Sonia Jimeno | 30 de octubre de 2025 | Paciente GPT






