ChatGPT Salud: así quiere OpenAI convertirse en el asistente médico digital del futuro

  • ChatGPT Salud integra datos médicos personales y apps de bienestar para ofrecer respuestas más contextualizadas, pero sin sustituir al médico.
  • La nueva sección funciona en un espacio independiente, con cifrado y promesa de no usar datos de salud para entrenar los modelos principales.
  • Expertos europeos alertan de graves dudas legales y de privacidad bajo el RGPD y la nueva Ley de IA, lo que complica su llegada a la UE.
  • El despliegue es limitado y, por ahora, se centra en Estados Unidos y territorios fuera del Espacio Económico Europeo.

ChatGPT Salud y salud digital

OpenAI ha dado un paso más en su estrategia de convertir la inteligencia artificial en una herramienta cotidiana con el lanzamiento de ChatGPT Salud, una nueva experiencia dentro de su asistente en salud digital que promete combinar datos médicos personales, información de bienestar y capacidades conversacionales avanzadas. La idea es que cualquier usuario pueda plantear dudas sobre pruebas médicas, síntomas, hábitos o seguros de salud y recibir explicaciones más ajustadas a su contexto.

La compañía calcula que cada semana más de 230 millones de personas realizan consultas sobre salud y bienestar en la plataforma, lo que representa ya alrededor del 5% de todos los mensajes enviados a ChatGPT a nivel global. Con esta nueva sección, OpenAI intenta canalizar ese enorme volumen de preguntas en un entorno más estructurado, con mayores garantías de privacidad y un enfoque explícito en el apoyo al paciente, no en el diagnóstico.

Qué es exactamente ChatGPT Salud y qué pretende hacer

ChatGPT Salud se presenta como una sección específica dentro de la app de ChatGPT, pensada para ir más allá de las consultas puntuales que los usuarios ya venían haciendo. El objetivo es que el asistente pueda funcionar como una especie de «panel de control» de la salud, centralizando historial clínico electrónico, datos de la app Salud del iPhone y métricas procedentes de aplicaciones de bienestar y ejercicio.

La plataforma permite que el usuario, si así lo decide, conecte su historia clínica y aplicaciones como Apple Health, MyFitnessPal, Function, Peloton o incluso servicios de recetas. A partir de ahí, el asistente puede ofrecer respuestas que tengan en cuenta resultados de análisis, niveles de actividad física, horas de sueño, peso, frecuencia cardíaca u otros parámetros recogidos por el móvil o el reloj inteligente.

En la práctica, esto se traduce en que el usuario puede pedir al sistema que interprete resultados de pruebas médicas, resuma analíticas de sangre antes de una cita, sugiera preguntas para el médico, ayude a organizar una dieta con ejercicio adaptado o explique las diferencias entre varios seguros de salud en función de su patrón de uso del sistema sanitario.

Además de las funciones conversacionales habituales, ChatGPT Salud admite subida de fotos y archivos, búsqueda avanzada, modo de voz y dictado. También se pueden fijar instrucciones personalizadas para que el asistente evite determinados temas sensibles, priorice cierto tipo de recomendaciones o organice la información de una manera concreta, lo que da cierta flexibilidad sobre el tono y el nivel de detalle de las respuestas.

Privacidad reforzada y un espacio de datos médicos separado

Uno de los puntos que más recelos despierta es la gestión de datos de salud, considerados de categoría especialmente sensible en casi todas las legislaciones. OpenAI insiste en que ha creado una sección de Salud aislada dentro de ChatGPT, de modo que las conversaciones y archivos médicos se almacenan separados del resto de chats y cuentan con memorias independientes.

Según la empresa, las interacciones en este modo se cifran tanto en tránsito como en reposo y se suman «capas adicionales» de aislamiento técnico para evitar accesos no autorizados o mezclas de contexto con otros usos del asistente. El usuario puede revisar y eliminar sus recuerdos médicos, desconectar aplicaciones vinculadas o revocar permisos desde la configuración en cualquier momento.

OpenAI afirma de forma explícita que las conversaciones dentro de ChatGPT Salud no se utilizarán para entrenar los modelos lingüísticos principales de la compañía. Tampoco las apps conectadas, en teoría, pueden acceder a más datos de los estrictamente necesarios, y están sujetas a requisitos extra de privacidad y seguridad. Aun así, la empresa reconoce que podría verse obligada a proporcionar información a las autoridades en caso de órdenes judiciales o situaciones de emergencia.

En Estados Unidos se han establecido alianzas como la de b.well, una red que conecta a millones de proveedores sanitarios y facilita el acceso a historiales clínicos electrónicos para mayores de 18 años. Esta conexión pretende asegurar que el sistema dispone de datos médicos oficiales y no solo de información manualmente introducida por el usuario, aunque limita todavía más la naturaleza delicada de los datos que se van a manejar.

Un desarrollo avalado por profesionales sanitarios

Para intentar disipar temores sobre la calidad de las respuestas, OpenAI subraya que ChatGPT Salud no se ha construido únicamente desde el ámbito tecnológico. La compañía asegura haber colaborado durante más de dos años con más de 260 médicos de 60 países y docenas de especialidades que han revisado alrededor de 600.000 interacciones del sistema.

De ese trabajo surge HealthBench, un marco de evaluación clínica que no se centra solo en si la IA «acierta» en una prueba teórica, sino en cómo comunica: qué nivel de urgencia se sugiere, en qué momento se recomienda acudir a un profesional sanitario presencial, cómo evitar alarmas innecesarias o mensajes confusos y de qué forma priorizar la seguridad del usuario ante síntomas potencialmente graves.

La herramienta está pensada para apoyar tanto a pacientes como a profesionales. Para los usuarios, puede ayudar a descifrar términos médicos que no quedaron claros en la consulta, organizar la información de varios informes o identificar patrones de salud a lo largo del tiempo. Para los sanitarios, se presenta como un aliado frente a tareas administrativas y de documentación que contribuyen al conocido burnout, liberando tiempo que podría dedicarse a la atención directa.

En entornos clínicos se mencionan ya ejemplos de integración con plataformas como OpenEvidence, que permite a médicos de áreas con menos recursos acceder a respuestas basadas en bibliografía científica reciente; también hay iniciativas como The Mind Guardian para detección precoz del Alzheimer, o proyectos académicos como Clinical Mind AI en la Universidad de Stanford, que utiliza la IA para crear simulaciones de pacientes y entrenar el razonamiento clínico en contextos de telemedicina.

Un uso masivo que ya genera cambios de comportamiento

Los datos internos que ha compartido OpenAI indican que la salud es uno de los temas más recurrentes en las conversaciones con el chatbot. Se estima que cada día unos 40 millones de personas recurren a ChatGPT para orientarse sobre cuestiones médicas o de bienestar, y que entre 1,6 y 1,9 millones de mensajes semanales se dedican solo a comparar planes de seguros, descifrar precios o gestionar denegaciones de cobertura.

Entre los adultos que ya utilizan herramientas de IA, más de la mitad las emplea como un primer filtro para revisar síntomas antes de acudir al médico, y casi la mitad las usa para volver a leer instrucciones clínicas que no quedaron del todo claras en la consulta. Este cambio en los hábitos plantea tanto ventajas —pacientes más informados y preparados— como desafíos en la relación con los profesionales sanitarios.

Médicos consultados en medios españoles apuntan que empiezan a aparecer pacientes que llegan a la consulta con las respuestas de ChatGPT impresas o en el móvil, y discuten diagnósticos o tratamientos a partir de lo que ha dicho la máquina. Por ahora son casos puntuales, pero los expertos anticipan que, a medida que herramientas como ChatGPT Salud se generalicen, las tensiones entre criterio profesional y «segunda opinión» algorítmica podrían intensificarse.

También se ha documentado que el uso de la IA en entornos sanitarios profesionales está creciendo con rapidez. En Estados Unidos, distintas encuestas sitúan en torno al 66% el porcentaje de médicos que ya utiliza algoritmos de IA en alguna parte de su práctica, y una mayoría considera que estas herramientas mejoran tanto la capacidad diagnóstica como la eficiencia en tareas burocráticas como codificación o facturación.

Riesgos, errores y ejemplos problemáticos

Aunque OpenAI insiste en que ChatGPT Salud no está diseñado para diagnosticar ni para prescribir tratamientos, los riesgos asociados a su uso no son menores. Por un lado, la compañía advierte de que se han desplegado salvaguardas para redirigir a servicios presenciales o de emergencia when se detecten situaciones de peligro, especialmente en el ámbito de la salud mental. Por otro, reconoce que la herramienta puede equivocarse y que sus respuestas no sustituyen la opinión clínica.

La experiencia de estos últimos años muestra que los errores no son teóricos sino reales. Revistas médicas han recogido casos como el de un paciente que sufrió una intoxicación por bromuro tras seguir recomendaciones dietéticas obtenidas de un chatbot, o el de una persona con dolor de garganta a la que la IA restó importancia a los síntomas, retrasando varios meses el diagnóstico de un cáncer. Son episodios aislados, pero ilustran hasta qué punto la confianza excesiva en sistemas probabilísticos puede tener consecuencias serias.

Expertos en inteligencia artificial consultados en España recuerdan que, en esencia, ChatGPT no «sabe» medicina en el sentido humano del término, sino que genera textos verosímiles a partir de patrones estadísticos de grandes cantidades de datos. Desde esta perspectiva, su comportamiento se parecería más a «buscar síntomas en Google y redactar un resumen» que a una valoración médica propiamente dicha.

Otro foco de preocupación es la forma en que muchas herramientas de IA limitan su responsabilidad mediante avisos legales. Con frecuencia, las advertencias de que la información puede ser errónea, parcial o desactualizada aparecen en letra pequeña o en secciones que el usuario apenas revisa, lo que contribuye a una percepción de fiabilidad mayor de la que realmente debería otorgarse a la máquina.

El encaje legal en Europa: RGPD, Ley de IA y escepticismo sanitario

Si bien ChatGPT Salud se está probando ya con un grupo reducido de usuarios en Estados Unidos y otros países fuera del Espacio Económico Europeo, su aterrizaje en la Unión Europea se antoja bastante más complicado. La combinación de datos clínicos, historiales electrónicos e información de hábitos sitúa el servicio en el núcleo mismo de las reglas más estrictas del Reglamento General de Protección de Datos (RGPD).

Especialistas españoles en gestión sanitaria, como el director médico del Hospital Clínico San Carlos, apuntan que, con la regulación actual, resulta muy difícil que un modo centrado en salud como este llegue a operar libremente en la UE. La normativa europea es especialmente restrictiva con la transferencia internacional de datos sanitarios y exige garantías de proporcionalidad, minimización y control del tratamiento que podrían chocar con el modelo de negocio y la arquitectura técnica de una empresa como OpenAI.

A este marco se suma la recién aprobada Ley de IA europea, que clasifica muchos usos sanitarios de la inteligencia artificial como de alto riesgo. Eso implica la obligación de someter los sistemas a evaluaciones de impacto, auditorías, documentación exhaustiva y controles humanos reforzados antes de su despliegue. Algunos catedráticos de IA en universidades españolas consideran que, tal y como está planteado ChatGPT Salud, su uso generalizado en Europa podría considerarse directamente ilegal en este momento.

Además de los requisitos formales, varios expertos en privacidad y ética digital recuerdan que compartir datos médicos con un chatbot con fines comerciales puede ser una decisión difícilmente reversible. El temor principal no es solo la posible brecha de seguridad —OpenAI ya sufrió un incidente en 2023 que expuso parte de la información de algunos usuarios—, sino el uso secundario de esos datos para segmentación publicitaria o productos financieros personalizados, algo que la propia dirección de la compañía ha dejado entrever como posible vía de negocio a futuro.

Integración con la app Salud del iPhone y el papel de Apple

Uno de los movimientos que más titulares ha generado es la conexión directa entre ChatGPT Salud y la app Salud del iPhone. OpenAI ha confirmado que los usuarios que lo deseen podrán vincular los registros recogidos por su móvil y, en su caso, por el Apple Watch u otros wearables: pasos diarios, patrones de sueño, frecuencia cardíaca, métricas de actividad, registros de peso y otros indicadores de bienestar.

Con esta integración, el asistente es capaz de detectar tendencias en los datos y ofrecer explicaciones o recomendaciones generales. No es lo mismo que el chatbot responda a partir de una descripción subjetiva de síntomas que hacerlo con un histórico de pulsaciones, horas de descanso o saturación de oxígeno. Sobre el papel, disponer de más contexto cuantitativo debería reducir la cantidad de respuestas claramente desacertadas.

La sincronización con la app de Apple llega, además, en un momento delicado, justo antes de que la compañía de Cupertino presente su propio servicio de salud basado en IA, sobre el que se espera un enfoque muy conservador y fuertemente validado desde la investigación clínica. Apple suele someter sus funciones médicas a procesos de validación largos, pruebas con especialistas y restricciones de uso antes de abrirlas al público general.

Sin embargo, esta integración con los datos del iPhone no está disponible en la Unión Europea ni en Reino Unido. En los territorios donde sí opera, el acceso se está desplegando de forma gradual y mediante lista de espera, mientras se afinan tanto las salvaguardas de privacidad como los mensajes de advertencia que acompañan a las respuestas relacionadas con salud.

Un aliado potencial frente al colapso y los «desiertos sanitarios»

Más allá de las dudas legales y éticas, OpenAI insiste en el potencial de ChatGPT Salud para mitigar algunas carencias estructurales de los sistemas sanitarios, sobre todo en países con grandes zonas rurales o con dificultades de acceso a especialistas. En Estados Unidos, la empresa estima que en los llamados «desiertos hospitalarios» —áreas donde el hospital más cercano está a más de media hora— se generan ya cerca de 600.000 mensajes semanales relacionados con salud.

Llama la atención que aproximadamente el 70% de esas conversaciones tiene lugar fuera del horario comercial, cuando los centros están cerrados y la atención telefónica es limitada. En esos contextos, el chatbot se convierte en una especie de primer punto de contacto disponible 24 horas, especialmente para aclarar dudas menores, traducir informes o ayudar a decidir si una molestia concreta justifica acudir a urgencias o puede esperar a la consulta ordinaria.

Estados como Wyoming, Oregón, Montana o Dakota del Sur, con densidades de población bajas y largas distancias entre núcleos urbanos, figuran entre los territorios donde más se utiliza ChatGPT en desiertos médicos. Aunque la situación no es extrapolable de forma directa a Europa, muchos sistemas de salud del continente se enfrentan a problemas similares en áreas rurales o envejecidas, lo que hace que la idea de un asistente médico siempre disponible resulte atractiva para algunos gestores.

Para los profesionales, el uso de IA se percibe también como una herramienta frente al agotamiento crónico. Automatizar tareas de documentación, elaborar resúmenes clínicos o preparar cartas informativas puede aliviar parte de la carga burocrática. No obstante, varias organizaciones profesionales recuerdan que la delegación excesiva en sistemas opacos podría introducir nuevos riesgos, desde sesgos diagnósticos hasta errores en la transmisión de información crítica.

Modelo de negocio, publicidad segmentada y futuro regulatorio

La apuesta de OpenAI por el ámbito sanitario tiene también un claro componente estratégico. La salud es un campo de consultas recurrentes y con fuerte componente emocional, en el que la dependencia y la retención de usuarios pueden ser muy altas. Integrar historiales clínicos, rutinas diarias y dispositivos conectados convierte al chatbot en algo más parecido a una agenda médica personal que a un buscador de respuestas genéricas.

En este contexto, declaraciones del director ejecutivo de OpenAI, Sam Altman, han generado debate al abrir la puerta a posibles usos comerciales de los datos en el futuro, incluyendo productos publicitarios segmentados. Aunque la compañía asegura que ChatGPT Salud incorpora protecciones adicionales y que los datos médicos no se usan hoy para entrenar los modelos principales, organizaciones de defensa de derechos digitales advierten de que las políticas de privacidad pueden cambiar con el tiempo.

En paralelo, expertos en política sanitaria señalan que el auge de este tipo de herramientas obligará a actualizar los marcos regulatorios. En Estados Unidos se habla de la necesidad de que la FDA desarrolle un esquema específico para dispositivos médicos de IA que no encajan en las categorías tradicionales. A medio plazo, se barajan tres grandes pilares: integrar datos globales (incluyendo genómica e imágenes) bajo fuertes garantías de privacidad, escalar laboratorios robóticos que puedan traducir hallazgos de la IA en terapias y redefinir los criterios de evaluación y aprobación.

En Europa, el debate se cruza con normativas como el RGPD y la Ley de IA, así como con sensibilidades distintas respecto a la mercantilización de datos sanitarios. No son pocos los académicos que se preguntan si la UE estará dispuesta a sacrificar parte de su nivel de protección de datos en aras de disponer de herramientas tan avanzadas como las que puedan desarrollarse en otros mercados.

La llegada de ChatGPT Salud confirma que la combinación de datos clínicos, dispositivos conectados e inteligencia artificial va a ganar peso en la forma en que entendemos la sanidad, desde las consultas del día a día hasta la gestión de seguros y la investigación. El movimiento abre opciones interesantes para que los pacientes estén mejor informados y los profesionales dispongan de apoyos adicionales, pero también coloca sobre la mesa interrogantes serios sobre privacidad, responsabilidad, sesgos y dependencia tecnológica que, al menos en Europa, van a requerir algo más que buenas intenciones y promesas de cifrado.

Artículo relacionado:
iOS 12 también dará protagonismo a la “salud digital”