A empresa desmente que o modelo parou de fornecer conselhos jurídicos e médicos
OpenAI desmente rumores de que o ChatGPT não fornece mais conselhos jurídicos e médicos, reafirmando que o modelo continua a ser um recurso útil.
Em 4 de novembro de 2025, às 14h35, Karan Singhal, chefe de Inteligência Artificial em saúde da OpenAI, desmentiu rumores sobre restrições no ChatGPT em fornecer conselhos jurídicos e médicos. Segundo ele, o comportamento do modelo permanece inalterado, apesar das especulações nas redes sociais.
Rumores e desmentidos
Usuários relataram que o ChatGPT apenas fornecia informações gerais, redirecionando-os para profissionais qualificados. Singhal afirmou em uma publicação no X que “o comportamento do modelo permanece inalterado” e que nunca foi um substituto para aconselhamento profissional. Além disso, a confusão surgiu a partir de uma atualização do sistema, datada de 29 de outubro de 2025, que listou usos proibidos do ChatGPT, incluindo o fornecimento de aconselhamento que requer licença profissional.
O papel da IA na saúde
A OpenAI reafirma que os usuários não devem utilizar o ChatGPT para aconselhamento jurídico ou médico sem a supervisão de um profissional qualificado. Essa regra não é nova e já estava presente nas Políticas de Uso publicadas em janeiro de 2025. A crescente utilização da IA no Brasil, que está entre os três países que mais utilizam o ChatGPT, levanta preocupações sobre o uso indevido da tecnologia para diagnósticos médicos.
A visão de especialistas
Ana Cristina Albricker, coordenadora e professora do curso de Medicina do Centro Universitário UniBH, enfatiza que a IA não deve substituir a consulta médica. Para ela, a inteligência artificial é uma ferramenta que pode facilitar processos, mas não deve ser vista como uma alternativa ao atendimento profissional. O relatório da OpenAI também revelou que mais de 1 milhão de usuários discutiram questões relacionadas ao suicídio, o que levanta ainda mais preocupações sobre o uso responsável da tecnologia.