Vínculo copiado
#ESNOTICIA
#ESNOTICIA
El anuncio marca el paso más ambicioso de OpenAI hacia el sector salud
19:30 martes 13 enero, 2026
Tecnología
Una consulta médica suele empezar con una pregunta simple y terminar entre archivos dispersos, resultados incompletos y poco tiempo. Esa fricción es el punto que OpenAI dice querer reducir con ChatGPT Health, una nueva experiencia de salud integrada a su popular chatbot que permite conectar historiales médicos y aplicaciones de bienestar en un entorno separado, con protecciones adicionales de privacidad.
El anuncio, realizado el miércoles, marca el paso más ambicioso de OpenAI hacia el sector salud. La función debutará mediante lista de espera y se desplegará gradualmente en la web y en iOS durante las próximas semanas.
Qué es ChatGPT Health (y qué lo hace distinto)
ChatGPT Health no reemplaza a la versión principal del chatbot. Funciona como un espacio dedicado, con memoria e historial de chat independientes, diseñado para concentrar conversaciones sensibles relacionadas con la salud.
Desde ahí, los usuarios podrán vincular historiales médicos a través de una asociación con b.well Connected Health e integrar datos de apps como Apple Health, MyFitnessPal, Function y Weight Watchers, entre otras. La idea es ver la información en conjunto y usarla para contextualizar preguntas de bienestar, hábitos y seguimiento.
OpenAI sostiene que el interés ya existe: más de 230 millones de personas hacen preguntas sobre salud y bienestar en ChatGPT cada semana, y más de 40 millones lo usan a diario para temas de salud.
Dos años de desarrollo con médicos
La compañía afirma que el producto se construyó durante dos años con la colaboración de más de 260 médicos, quienes aportaron retroalimentación más de 600 mil veces en 30 áreas de enfoque. El objetivo: ajustar respuestas, reducir errores y evitar tonos alarmistas.
La premisa es clara: organizar información y orientar, no diagnosticar ni tratar.
Privacidad reforzada… con un asterisco legal
ChatGPT Health incorpora cifrado y aislamiento para mantener las conversaciones compartimentadas. Por defecto, las conversaciones de salud no se usan para entrenar los modelos fundamentales de OpenAI. Sin embargo, existe un límite importante.
Durante una rueda de prensa, la empresa aclaró que ChatGPT Health no cumple con HIPAA —la Health Insurance Portability and Accountability Act— porque se trata de productos de salud para consumidores, fuera del alcance de esa ley. Nate Gross, director de salud de OpenAI, explicó que los datos podrían ser accesibles si existen citaciones judiciales u órdenes de tribunales, o en situaciones de emergencia.
En términos simples: hay más protecciones técnicas, pero no el mismo paraguas legal que rige a hospitales o aseguradoras.
Una historia personal desde la dirección
Durante la presentación, Fidji Simo, directora ejecutiva de Aplicaciones de OpenAI, compartió una experiencia personal. Tras ser hospitalizada por un cálculo renal, ChatGPT la ayudó a detectar una posible interacción farmacológica peligrosa.
“El médico residente se sintió aliviado de que hablara”, relató Simo, al explicar que los tiempos de atención son reducidos y que los registros médicos no siempre están organizados para una visualización rápida. La anécdota ilustra el uso que OpenAI impulsa: apoyo informativo y contextual, no sustitución clínica.
El contexto incómodo: errores y riesgos de la IA en salud
El lanzamiento ocurre bajo fuerte escrutinio. En agosto de 2025, médicos documentaron un caso en el que un hombre fue hospitalizado tras seguir una recomendación peligrosa atribuida a ChatGPT (sustituir sal por bromuro de sodio). Herramientas similares, como AI Overview de Google, también enfrentaron críticas por sugerencias médicas incorrectas.
Investigaciones citadas por The Guardian hallaron recomendaciones engañosas de sistemas de IA, incluso sobre pruebas hepáticas y dietas para cáncer de páncreas. Un estudio de Mount Sinai (agosto de 2025) concluyó que los chatbots de IA ampliamente usados son “altamente vulnerables” a difundir información dañina en salud.
Qué promete OpenAI para evitar daños
OpenAI subraya que ChatGPT Health “no está diseñado para diagnóstico o tratamiento”. En situaciones de angustia, el sistema redirigirá a profesionales de la salud. Sobre la ansiedad relacionada con la salud, Simo afirmó que la empresa realizó ajustes extensivos para informar sin alarmar.
En la práctica, el enfoque es triage informativo: ayudar a entender datos, preparar preguntas y reconocer cuándo es necesario acudir a un especialista.
Únete a nuestro canal de WhatsApp para no perderte la información más importante 👉🏽 https://gmnet.vip/7Be3H
Con información de Excélsior