Inteligência artificial como (mais) uma habilidade médica - edição extra: OpenAI Health
A OpenAI lançou, no dia 7.01.2026, o GPT Health. No mesmo dia, Utah autorizou a renovação de prescrições de medicamentos por uma plataforma de IA.
Alerta de texto longo. Não há como trazer considerações minimamente responsáveis de forma breve.
No dia 06.01.2026 a OpenAI começou a liberar vídeos com conteúdo claramente voltado à saúde. Abaixo disponho a sequência cronológica em que os vídeos foram publicados no perfil do YouTube da OpenAI e considero que vale pausar a leitura para assistir a todos os vídeos: o primeiro é o mais extenso e não chega a 3 minutos de duração.
Dia 06.01.2026:
Navigating Health | with ChatGPT
Dia 07.01.2026:
Balancing Motherhood | with ChatGPT
Understanding Inflammation | with ChatGPT
Understanding your Scan Results | with ChatGPT
Preparing for a doctor’s appointment with ChatGPT
Helping you choose the right insurance plan for you with ChatGPT
Personalized nutrition tips with ChatGPT
Introdução: estabelecendo o cenário
Tenho falado bastante que o interesse das empresas de IA na saúde é cada vez mais evidente: acompanho as lives de lançamento dos novos modelos da OpenAI e desde o lançamento da versão 4.5 a relevância que a empresa dá a questões relacionadas à saúde chama muito a atenção.
O título desta minha série “Inteligência artificial como (mais) uma habilidade médica” tinha e tem como foco principal a discussão da incorporação da Inteligência Artificial (IA) às Diretrizes Curriculares Nacionais (DCNs) do curso de medicina, mas não se restringe a esse objetivo. A IA generativa e suas aplicações estão avançando consideravelmente na sociedade e o campo da saúde não é exceção - ao contrário, é um mercado em potencial.
Mercado de que exatamente? As empresas que vendem acesso aos modelos de IA têm se esforçado para vender não apenas produtos, mas experiências personalizadas. Não apenas personalizadas da forma que você gosta, mas os modelos de IA têm sido treinados para serem amigáveis, gentis, bajuladores (na medida certa): essa combinação nos faz atribuir a eles uma personalidade e isso estabelece (ou ajuda a estabelecer) conexão emocional. A lógica do diálogo natural, combinada à conexão emocional, permite uma antropomorfização muito natural dos modelos de IA e isso gera uma conexão forte o suficiente para que usuários deixem de ver “suas” IAs como ferramentas e comecem a vê-las como amigas(os), parceiras(os), confidentes…
Como também tenho comentado com frequência, criamos laços emocionais (e irracionais) com objetos inanimados com alguma frequência: desde canecas preferidas até conceitos intangíveis como marcas (alô Apple! alô Samsung!). Esses laços fazem com que objetos inanimados - produtos de consumo - sejam muito mais dificilmente substituídos… Pense comigo: se você quebrou um copo, você (limpará a bagunça) pegará outro e seguirá sua vida. Mas se sua caneca de estimação quebrar… Se seu celular Apple 25.3 quebrar…
Isso já está acontecendo com modelos de IA: quando a OpenAI lançou o modelo 5, a empresa retirou o acesso aos modelos anteriores e isso gerou uma onda de reclamações de usuários tão intensa que eles retrocederam e disponibilizaram os modelos antigos. Houve relatos de pessoas declarando que se sentiram como se tivessem perdido um amigo.
Combinando esses dados: imagine que você tem um amigo, confidente, parceiro - dê o nome que quiser - e que, ao menos teoricamente, sabe tudo de tudo. Agora, não apenas ele(a) sabe tudo de tudo, ele está sendo anunciado especificamente como especialista em saúde. Para uma parte importante dos usuários (ou pacientes), isso significa que acabaram as barreiras do acesso, dos deslocamentos, de eventuais constrangimentos e de possíveis julgamentos morais (sejam eles fictícios, apenas na cabeça do usuário, ou reais, emitidos por múltiplos profissionais de saúde que julgam seus pacientes em vez de acolhê-los).
Saúde é um tema importante para a maioria das pessoas, seja de forma direta (a própria saúde) ou de forma indireta (um ente querido). Além da importância, a experiência do acesso à saúde é muito sensível e muito dificilmente uma pessoa estará satisfeita com o que tem à disposição na saúde. Da Holanda ao Brasil, passando pelos EUA e pelo Canadá, há muitas diferenças nos modelos de acesso à saúde entre diferentes países e entre diferentes regiões de um mesmo país (serve para estados e mesmo municípios, quando pensamos em países como o Brasil).
O que é comum em todos esses casos? A insatisfação potencial dos usuários com seus sistemas de saúde. A lista é enorme, mas forneço alguns exemplos básicos:
falta de acesso em termos absolutos (geográfico, financeiro…)
falta de acesso relativo (“preciso” de um especialista, mas sou obrigado(a) a passar por um GP/generalista antes e só então obter um encaminhamento)
falta de empatia e acolhimento por parte dos(as) profissionais
consultas demasiadamente curtas
…
Tudo que eu descrevi até agora é meramente introdutório. A partir do cenário acima, podemos entender que saúde é um mercado potencial interessantíssimo. Por mais que a OpenAI tenha declarado que o objetivo da nova iniciativa não seja o de substituir profissionais, na prática isso é bem diferente. Vou trazer alguns comentários rápidos sobre os vídeos publicados e seguimos a análise do contexto.
Análise dos vídeos da OpenAI
O primeiro (e mais extenso) vídeo traz um apanhado geral sobre os temas que serão abordados nos demais vídeos. O vídeo começa com uma mãe atribulada com duas crianças e solicitando uma série de exercícios ao GPT direto pelo assistente de áudio “tenho 15 minutos e quero encaixar uma série de exercícios: o que posso fazer com um conjunto de 5kg de halteres?”. Corta o vídeo para outra pessoa, uma mulher jovem comentando sobre dor crônica e que pergunta ao GPT quais são ações simples que ela pode fazer para aliviar uma crise álgica de endometriose (endo flare).
O vídeo segue para uma mulher que declara que tem eczema (dermatite) e corta para um adolescente em destaque e uma voz feminina de fundo falando que “quando você descobre que seu filho tem câncer, você se sente desamparada. Sua cabeça fica girando com quais são as possibilidades”. Na sequência, um casal andando e o homem comenta que “se tornou muito importante entender o resultado das minhas tomografias antes de conversar com meu médico. Eu senti que se eu entendesse os resultados, eu teria uma participação mais ativa no meu tratamento”.
Em novos cortes, a pessoa antes associada ao eczema aparece perguntando ao GPT se algumas das roupas que ela está olhando numa loja podem conter gatilhos para as reações dermatológicas; aparece a mãe, apresentada anteriormente, fazendo as atividades físicas sugeridas pelo GPT - “exercícios compatíveis com a maternidade”. O vídeo segue para mostrar um homem que aparece no vídeo dizendo que os médicos prescrevem medicamentos, mas “há muito mais que também pode ser feito para auxiliar no cuidado da saúde” - corta para um restaurante onde ele fala sobre a possibilidade de tirar uma foto do prato servido e calcular um “escore inflamatório” dos alimentos.
O vídeo avança com uma pessoa na frente do computador, usando o chatGPT, escrevendo, no prompt, “temos uma consulta com o oncologista do Tom” - e uma frase de fundo declarando que “o tempo com o especialista pode ser muito limitado, então vamos armados com perguntas para assegurar que obteremos o máximo dessas conversas”. O vídeo termina com um gráfico exibido na tela e uma voz de fundo dizendo que registra todos os (próprios) sintomas e, a partir disso, criou um escala individualizada com seu próprio nome (Burtness), que traz para ele a informação do quanto ele se sente como ele mesmo.
O vídeo avança para a parte final e numa cena em particular, a frase “ele (o GPT) permitiu que realmente sentíssemos que temos os dados (fatos), que o médico está nos dando a sua expertise, sua experiência e seus instintos”, com um corte para outra cena onde a frase “minhas consultas evoluíram muito mais para planejamento das ações do que obtenção de informações”.
O vídeo termina com a frase “Navegue pela sua saúde com confiança”.
Saúde como produto (ou mercadoria)
Se você é profissional da saúde, a esta altura já teceu mil julgamentos sobre os certos e os errados sobre os vídeos e/ou o que escrevi aqui: vou gentilmente pedir que guarde-os por alguns instantes e coloque-se em outra posição, como consumidor de outro serviço. Imagine que você quer alguma explicação sobre um contrato (informação legal) ou sobre uma planta baixa (informação de engenharia civil) ou, ainda, sobre um defeito do seu carro que você levou na concessionária e o orçamento que te devolveram quase te permite comprar um carro novo.
Quão úteis seriam as informações sobre esses tópicos para você? Quanto você pagaria por elas? É mais ou menos esse o negócio - um dos negócios, na verdade - que a OpenAI está anunciando, fornecendo - e que já está sendo usado por quase 1 bilhão de pessoas pelo mundo. Se eu ou você, que está lendo este texto, considera essas práticas erradas (ou certas), lamento informar que a OpenAI e a maioria de seus usuários não estão preocupados com isso. Nem com segurança de dados, nem com privacidade. A lógica é simples: há um problema, eles acham que a IA consegue resolver: eles consultam a IA e o retorno é convincente o suficiente para parecer - ou mesmo ser - resolutivo.
Se isso acontece em todos os campos que eu comentei acima, a saúde não será uma exceção. A diferença é que nosso viés aqui é a saúde e temos conhecimento suficiente para perceber as armadilhas. Se fôssemos operadores do direito, meu exemplo sobre o contrato poderia parecer inadequado - “o chatGPT erra ao analisar contratos!” - e eu estou ciente disso. Ele erra em todos os tópicos que dei como exemplo. Mas a) você precisa conhecer da área para identificar o erro e b) acertando o suficiente (70 a 80% das vezes), a maior parte das pessoas entra no modo “viés de automação” e passa a confiar cegamente.
Repito: a saúde não será uma exceção.
Vou além: a oferta destes serviços pelo GPT auxiliará uma parcela considerável da população. Pessoas que efetivamente não têm acesso à saúde ou que tiveram traumas gerados por profissionais de saúde despreparados poderão se beneficiar genuinamente desses serviços, porque o critério de comparação é “nada”. Comparado com nada, algum acesso à informação da saúde poderá ser útil - e se a taxa de erro das informações de saúde do GPT for de aproximadamente 70%, o cálculo dos players (mercado) é de que haverá mais benefício do que risco.
Mas sim: há riscos. E eu, como profissional da saúde e alguém que tem tentado prover o mínimo de educação em saúde e educação/letramento/treinamento em IA aplicada à saúde, preciso destacá-los para tentar, no mínimo, mitigar seus impactos, tanto para profissionais quanto para usuários/pacientes.
Os riscos
Como vocês podem deduzir, eu (infelizmente) não tenho acesso privilegiado à OpenAI e não planejei escrever esta série justamente em meio ao lançamento do GPT Health. E não é uma mera coincidência, é um fato: há iniciativas unindo IA generativa e IA preditiva o tempo todo à saúde - a diferença é que esta é tão grande que sai da bolha profissional.
Eu tenho abordado bastante o tema sobre os riscos associados ao uso “indiscriminado” de IA aplicada à saúde: aqui eu comecei a elaborar, de maneira mais organizada, e segui aqui e aqui. Não preciso nem retomar os temas: o vídeo da OpenAI traz “o gabarito” de algumas das ressalvas que trago nos meus textos, aulas, palestras e treinamentos. São as partes que deixei destacadas, em negrito, na seção onde descrevo os vídeos.
Podemos problematizar a prescrição de exercícios físicos sem avaliação prévia (médica e por um(a) educador(a) física); idem para a possível substituição do cuidado numa crise de dor crônica na endometriose e algumas outras ações “complicadas” presentes nos vídeos da OpenAI, mas todas elas têm nuances que são relativamente óbvias mesmo para pessoas que não são da saúde. Como o texto já está extenso demais, deixarei nuances para depois: me deterei à análise dos exames complementares.
Exames complementares têm este nome por um motivo: isolados de um contexto clínico eles têm pouco (ou nenhum) significado intrínseco. Um exemplo simples: dor nas costas (lombalgia) tem diagnóstico clínico e não é necessário solicitar qualquer exame de imagem, exceto se houver sinais de alerta (red-flags) específicos (idade, sintomas sistêmicos…). Por quê? Porque a partir dos 30 anos (ou antes), a probabilidade de termos alterações osteoarticulares na coluna aumenta, mas majoritariamente essas alterações não são a causa das dores.
Quando um profissional solicita esse exame (de maneira equivocada) e o paciente o recebe, ao levar para o GPT para análise, o risco de uma relação causal entre a alteração encontrada e a dor aumenta muito, deixando o paciente suscetível a uma série de ações e intervenções (inclusive cirúrgicas) que só farão mal ao paciente (cascata iatrogênica).
Isso pode acontecer com exames como FAN, marcadores tumorais inespecíficos como CA 125, CA 19-9 (e tantos outros): esses exames devem ser pedidos dentro de um contexto clínico muito definido, caso contrário só servirão para deixar o(a) paciente mais preocupado(a) e vulnerável.
A preocupação acima é reiterada e justificada a partir de dados do próprio vídeo: quando o paciente menciona a possibilidade de fazer uma foto do prato para calcular o “escore inflamatório” da refeição, claramente temos um problema.
As evidências sobre a relação entre alimentos e “inflamação geral” são, em geral, de baixa qualidade. Estudos observacionais, dependentes de questionários, com limitações estatísticas, deturpações metodológicas, p-hacking, harking, spins e mais um monte de outros problemas. O corpo de evidência sobre nutrição diferencia dietas mais ou menos adequadas à maior parte das pessoas (deitas mais ou menos “saudáveis”), sem dúvida, mas há muito mais nuances e detalhes do que imaginar que o conteúdo de cúrcuma ou gengibre da dieta terá um impacto clinicamente relevante nos desfechos de doenças inflamatórias, agudas ou crônicas.
Aumentar a quantidade de frutas, verduras, legumes; diminuir o consumo de gorduras saturadas, manter o consumo adequado de proteínas, adequado à idade, é muito importante, mas até isso demanda cuidado. Dicas gerais são uma coisa, recomendações alimentares específicas são mais complexas: “aumentar consumo” é vago. Aumentar quanto? Uma pessoa que não consome fibras em sua dieta não deve aumentar subitamente seu consumo, sob o risco de ter desconforto gastrointestinal e alterações drásticas da motilidade intestinal.
Ainda neste tópico: ao atribuirmos escores (inexistentes ou ineficazes) ou juízos de valor aos alimentos, corremos dois riscos: 1) a perda da oportunidade terapêutica, ou seja, o paciente deixa de lado um tratamento efetivo por manejos sem evidências - e perdermos oportunidades de tratar pacientes com doenças autoimunes, por exemplo, com opções terapêuticas realmente efetivas e 2) o estabelecimento ou o fortalecimento de uma relação patológica com os alimentos, “medicalizando” nossa relação com o que comemos (“X é um veneno, Y é um superalimento”).
Raciocínio clínico e análise crítica das evidências são habilidades complexas e que não serão facilmente obtidas pelos modelos de IA sem que o usuário saiba muito bem o que está fazendo. Esperar esse conhecimento de profissionais de saúde sem treinamento específico já é um enorme otimismo; esperar dos usuários, sem qualquer formação em saúde, é assumir riscos.
“Sutilezas”?
Quando a OpenAI traz depoimentos como “o tempo com o especialista pode ser muito limitado, então vamos armados com perguntas para assegurar que obteremos o máximo dessas conversas” precisamos entender que parte desse cenário é fruto de questões sistêmicas profundas, além de, claro, questões individuais.
Cabe ao profissional da saúde disponibilizar-se para esclarecer as dúvidas de seus pacientes, mas é um cenário impossível quando há uma pressão sistêmica por consultas de 15 minutos. Consultas com pediatras, geriatras, obstetras, reumatologistas, oncologistas, neurologistas e neuropediatras (e tantas outras especialidades) muitas vezes precisam durar mais de uma hora - por vezes mais. Mas isso não é possível em diversos cenários da saúde, seja pela baixíssima remuneração aferida e pela pressão por muitas consultas/hora - boa parte da população não médica nem sabe que essas pressões existem e estão cada vez maiores.
Isso leva a um efeito cascata, público e privado, de subvalorização profissional e falta de condições concretas que levam à impossibilidade e/ou à cultura (dependendo do local) de consultas rápidas, breves, superficiais e desumanizadas.
Minha frase clichê, de novo: o problema não é a humanização crescente da IA - é a desumanização do humano.
Consequências (nada sutis)
Utah anunciou anteontem uma parceria com uma empresa de IA aplicada à saúde que permite a renovação de prescrições de medicamentos por meio de uma plataforma digital de IA.
No mundo ideal, o momento da renovação de uma prescrição deve ser utilizado para obter mais informações sobre o(a) paciente, entender como está a adesão ao tratamento, entender se há novas queixas, se houve evolução dos sintomas, se há novos sintomas ou queixas. Esse acompanhamento longitudinal é a base de muitos tratamentos (em diversas especialidades) e a pergunta que fica é: a IA alcança essa complexidade?
E sim, estamos todos cientes da superlotação dos serviços de atenção básica, da demora que isso pode trazer nas consultas e renovações de prescrições: retomamos o problema sistêmico abordado acima. Será que a melhor solução para contornar o sistema é acrescentar plataformas de IA como substituta da atenção ao paciente? Será que uma redução expressiva da burocracia que os profissionais têm que lidar não permitiria uma agenda mais flexível para a inclusão de pacientes?
Contratar mais profissionais não seria uma solução melhor para os pacientes?
Conclusões (?)
Você não precisa mais acreditar em mim quando digo, já há algum tempo, que a relação entre IA e saúde é presente.
Você não precisa mais acreditar em mim para entender que se você é profissional da saúde, você terá que navegar - agora mais que nunca - entre pacientes e seus diagnósticos e informações obtidos por IA. Algumas informações estarão corretas, outras nem tanto. E além do conhecimento técnico, que é nossa obrigação fundamental, teremos que conhecer sobre IA o suficiente para conseguir explicar ao paciente os porquês que a IA explicou algo errado.
Você precisará saber mais sobre como funcionam os modelos de IA; como ocorrem as alucinações (da IA) e os tipos de erros associados aos fundamentos da IA - não apenas por você, mas para somar às suas habilidades de comunicação clínica, que também serão mais desafiadoras em tempos de IA.
Já pensou em como você vai conseguir explicar para o paciente que o “amigo GPT” que ele usa e confia está errado e você, que ele nunca viu antes, é o certo? Já pensou em como você vai dizer para o paciente que, de fato, a consideração que o GPT fez pode ser útil e investigá-la seria interessante - e que você, de fato, não tinha pensado na possibilidade?
Novos (?) desafios da IA aplicada à medicina e saúde.
Disclaimer: meu papel é informar. Tento, dentro do possível, apontar riscos quanto ao uso indevido da IA aplicada à saúde, mas não gosto e não trabalho com terrorismo (“você será substituído”) e também não gosto e não trabalho com futurologia (“daqui a 3, 5 ou 10 anos o mercado estará assim ou assado”). Tento manter a maior neutralidade possível, assumindo a impossibilidade absoluta: não existe neutralidade verdadeira.

