Comissão Europeia apura rede social X e chatbot Grok após denúncias de conteúdo ilegal envolvendo imagens manipuladas sexualmente
UE investiga Grok, chatbot da rede X, por gerar imagens falsas sexualizadas, incluindo conteúdos ilegais envolvendo menores.
A Comissão Europeia anunciou em 26 de janeiro de 2026 a abertura de uma investigação contra o chatbot de inteligência artificial Grok, vinculado à rede social X, de propriedade do bilionário Elon Musk. A apuração tem como foco o potencial envolvimento do serviço na disseminação de conteúdo ilegal, especialmente a geração de imagens falsas sexualizadas sem consentimento, na União Europeia (UE).
Entenda o caso
A suspeita principal é que Grok tenha criado imagens manipuladas sexualmente explícitas, incluindo retratos de crianças e mulheres em situações que podem ser consideradas abuso sexual infantil. A Comissão avalia se a rede social X adotou medidas adequadas para mitigar riscos associados à implementação do Grok na região.
Antes mesmo da investigação, a UE havia exigido que o X mantivesse todos os dados referentes aos pedidos e produções do Grok até o final do ano de 2026, garantindo acesso para apuração.
Resposta da plataforma e contexto internacional
Em 14 de janeiro, a empresa xAI, responsável pelo Grok, afirmou ter limitado a função de edição de imagens para certos usuários e bloqueado a geração em jurisdições onde isso é ilegal. Contudo, a Comissão Europeia considerou insuficiente essa resposta, especialmente por não detalhar quais países estavam sujeitos às restrições.
A controvérsia aumentou após a circulação massiva de imagens de crianças e mulheres nuas ou em poses sexualizadas geradas pela IA, sem autorização das pessoas retratadas. Segundo a ONG britânica CCDH, cerca de 23 mil dessas imagens apresentavam crianças.
Na França, o governo já moveu ação judicial contra o X devido a esse conteúdo.
Implicações legais e regulatórias
A investigação da Comissão Europeia avalia se o X violou a Lei de Serviços Digitais (DSA), aplicada aos 27 países da UE. Essa legislação impõe às plataformas obrigações rigorosas para eliminar conteúdos ilegais e proteger menores, com multas que podem chegar a 6% do faturamento global.
Além dessa apuração, o X foi multado em dezembro de 2025 em 120 milhões de euros por não cumprir exigências de transparência da DSA, referentes, por exemplo, ao selo de verificação azul e dados publicitários.
Paralelamente, a Comissão prorrogou investigação iniciada em 2023 sobre o cumprimento das normas de gestão de riscos em sistemas de recomendação de conteúdo da plataforma.
Desafios da regulação da inteligência artificial
O caso Grok evidencia as complexidades na regulamentação de serviços baseados em IA, especialmente quando associados à geração de conteúdos sensíveis e potencialmente ilegais. A União Europeia busca assegurar que empresas tecnológicas assumam responsabilidade pela moderação e transparência, protegendo direitos fundamentais dos cidadãos europeus.
No entanto, o equilíbrio entre inovação tecnológica e segurança jurídica permanece um desafio, destacando a necessidade de adaptações contínuas na legislação diante do avanço rápido dessas tecnologias.
Cenário global e pressão social
Além das ações governamentais, organizações civis e especialistas em segurança digital têm intensificado cobranças por mecanismos eficazes contra a produção e disseminação de deepfakes e conteúdos abusivos. O caso Grok é um exemplo emblemático do impacto social e ético da inteligência artificial aplicada à criação de imagens.
A evolução dessas tecnologias e o aumento do uso por usuários comuns reforçam a urgência de normas robustas e fiscalização rigorosa para evitar danos irreparáveis a indivíduos e comunidades.
Fonte: www.metropoles.com
Fonte: Arte/Metrópoles