*Por Fábio Tiepolo
O recente boato sobre uma suposta decisão da OpenAI de restringir o uso do ChatGPT para recomendações médicas, jurídicas e financeiras movimentou o noticiário e as redes sociais nos últimos dias. As matérias divulgadas afirmavam que a empresa passaria a limitar o fornecimento de conselhos em determinadas áreas — informação logo desmentida pelo CEO da companhia. A questão que permanece é: será que essa seria realmente uma má ideia?
O avanço tecnológico e o uso da inteligência artificial são fatos incontornáveis, mas não podemos perder de vista a capacidade humana. Talvez o caminho seja, justamente, evitar que a IA ofereça orientações que exijam licença profissional sem a devida supervisão. Essa mudança redefiniria o papel da IA na sociedade: em vez de decidir por nós, passaria a explicar para nós. Embora possa parecer um retrocesso, entendo que representaria um passo de maturidade e responsabilidade.
A ascensão da IA generativa colocou governos e empresas diante de um dilema inédito: como equilibrar inovação e segurança, liberdade e proteção? O modelo de “inteligência universal” começa a dar lugar a sistemas mais especializados, supervisionados e éticos. Ao limitar o papel consultivo dos agentes de IA, não apenas nos resguardamos juridicamente, como também abrimos espaço para uma nova geração de inteligências verticais, voltadas a contextos específicos, com rastreabilidade de dados e supervisão humana.
Essa é precisamente a fronteira em que empresas como a Starya atuam: desenvolver agentes inteligentes capazes de operar em domínios regulados, como saúde, finanças e seguros, unindo tecnologia e empatia. Talvez essa transformação seja necessária para um reposicionamento estratégico do mercado. A IA genérica continuará útil como ferramenta de produtividade, mas será a IA especializada — aquela que entende o contexto — que entregará o verdadeiro valor.
Em setores críticos como o da saúde, essa distinção é essencial. Modelos genéricos não devem substituir o julgamento clínico. Como afirmou o médico e cientista Matthew Lungren, da Microsoft, “a inteligência artificial vai nos salvar tempo antes de salvar vidas”. O impacto real da IA está em ampliar a capacidade humana de compreender e decidir, não em prescrever.
Mais do que uma restrição, esse movimento representa um amadurecimento ético e técnico. Assim como o automóvel precisou de regras para tornar-se seguro, a IA precisa de limites para ser confiável. O futuro não será de substituição do humano, mas de colaboração entre humanos e máquinas. O valor não estará em quem detém mais dados, e sim em quem entende melhor o que fazer com eles. A inteligência artificial deixa de ser um oráculo e passa a ser, enfim, uma extensão da nossa própria inteligência.
Fábio Tiepolo é CEO da Starya (www.starya.ai) e referência internacional na aplicação de inteligência artificial à estratégia corporativa.