O uso do ChatGPT como ferramenta de desabafo e até mesmo apoio emocional tem se tornado cada vez mais comum, especialmente entre jovens. No entanto, essa tendência levanta uma preocupação crucial sobre a privacidade dos usuários, conforme alertado por Sam Altman, CEO da OpenAI.
Em declarações recentes, Altman enfatizou que as conversas mantidas com a inteligência artificial não possuem a mesma proteção legal de sigilo que existe em relações terapêuticas ou jurídicas tradicionais. Essa revelação impacta milhões de pessoas que compartilham informações pessoais e problemas com o ChatGPT, acreditando erroneamente em um anonimato garantido.
Altman explicou que, na ausência de uma legislação específica sobre o tema, a OpenAI pode ser obrigada a fornecer o histórico de conversas dos usuários em casos de litígios judiciais. Ele descreveu a situação como “muito complicada” e expressou a necessidade de uma regulamentação que assegure o mesmo nível de privacidade encontrado em outras áreas profissionais.
Essa falta de sigilo representa um obstáculo para a adoção mais ampla da tecnologia, e Altman reconhece a preocupação de muitos usuários com a privacidade de seus dados. A OpenAI, inclusive, enfrenta uma batalha judicial para evitar uma ordem que a obrigaria a armazenar os chats de milhões de usuários globalmente, com exceção dos clientes do ChatGPT Enterprise.
A empresa argumenta que tal medida seria excessiva e abriria um precedente perigoso para outras demandas legais e solicitações de autoridades, que já são comuns para grandes empresas de tecnologia em investigações criminais.
O debate sobre a privacidade de dados na era da IA ganha força, e a mensagem de Sam Altman é clara: a responsabilidade legal e ética sobre a privacidade do usuário ainda não acompanha o avanço da tecnologia. A ausência de regulamentação para o sigilo em conversas com inteligência artificial pode comprometer a segurança dos dados e minar a confiança dos usuários.