Com o Brasil entre os líderes globais em adoção de IA, a aplicação responsável dessa tecnologia pode potencializar autenticidade e eficiência nas organizações
Dados recentes mostram que 54% dos brasileiros utilizaram IA generativa em 2024, superando a média global de 48%, sendo que no ambiente corporativo, o Brasil ocupa o 2º lugar entre 12 países no uso de IA no trabalho (atrás apenas da Índia) com 82% dos profissionais do conhecimento integrando ferramentas como ChatGPT, Copilot e DALL‑E à sua rotina, segundo estudo Olhar Digital do Google e Ipsos. Além disso, um levantamento divulgado pela AIoT Brasil, aponta que globalmente, o ranking de acessos posiciona o Brasil em 4º lugar, atrás apenas de EUA, Índia e Quênia, com 3,9% do tráfego mundial em IA .
Segundo o CEO da Opus Tech, Junior Machado, o ritmo acelerado de adoção revela o poder transformador da IA, mas também impõe desafios que exigem reflexão ética. “Embora as ferramentas de IA tragam ganhos expressivos de produtividade e inovação, seu uso deve refletir valores humanos e preservação da autenticidade, nesse contexto é preciso entender que crescimento tecnológico sem ética é como uma nave sem destino, ponto que deve servir de reflexão para todas as empresas e profissionais que usam a IA no seu dia a dia”, comenta.
O CEO afirma que a autenticidade, considerada uma tônica do uso responsável da IA, é fundamental, especialmente na produção de conteúdos. “A tecnologia pode amplificar a voz das pessoas, mas jamais substituí-las. A IA deve revelar, não apagar, a personalidade de quem a utiliza. Identidade e originalidade são pilares que devem nortear a criação de textos, imagens e campanhas, sempre”, reforça.
Além das questões relacionadas à produção de conteúdo, o uso ético da IA levanta discussões importantes sobre a automação na coleta, análise e interpretação de dados. Hoje, sistemas baseados em IA são capazes de cruzar grandes volumes de informações com extrema rapidez para projetar padrões de comportamento e prever probabilidades, o que, por um lado, pode ser útil, mas por outro, levanta sérias dúvidas sob o olhar ético. “Imagine uma IA sendo usada para precificar um seguro ou decidir a adesão a um plano de saúde com base em dados pessoais e padrões estatísticos. Isso pode gerar exclusões injustas ou reforçar desigualdades”, alerta Junior Machado.
Outro ponto de atenção envolve a segurança da informação, especialmente diante do uso malicioso de ferramentas de IA. Já existem sistemas capazes de quebrar senhas, simular acessos por força bruta ou identificar vulnerabilidades em redes e sistemas, promovendo vazamentos ou extração de dados sem consentimento. “A proteção da privacidade deve estar no centro do debate. O uso de IA precisa ser acompanhado por uma governança robusta em cibersegurança, para evitar que essa tecnologia seja usada como arma contra empresas e indivíduos”, complementa o CEO.
Preservar a confiança e a transparência
Um ponto importante a ser elencado é a necessidade de a IA ser usada para preservar a confiança e a transparência, evitando a disseminação de deepfakes, notícias falsas ou manipulações editoriais. “Com base em princípios como privacidade, integridade e respeito à autoria, o ideal é que empresas e profissionais adotem políticas claras de uso, como por exemplo, sempre contar com revisão humana em que todo conteúdo gerado com IA e sinalização de uso da tecnologia. Essa prática ajuda a manter a credibilidade diante do público e a construir relações mais éticas e duradouras com clientes, usuários e parceiros. Transparência sobre o uso da IA também reduz o risco de enganos e desinformação, além de valorizar o papel do trabalho intelectual humano. Ao deixar claro quando a inteligência artificial é aplicada, promove-se um ambiente mais seguro, confiável e alinhado às boas práticas de comunicação e responsabilidade digital”, afirma Machado.
Outro aspecto essencial é o conceito de inteligência responsável, que valoriza o uso da IA de forma consciente, ética e supervisionada por seres humanos. “Não defendemos a automação pura, mas sim a IA orientada por humanos. A intervenção e supervisão contínuas são indispensáveis para garantir resultados seguros e éticos. Essa perspectiva reforça que o ser humano não deve ser retirado da equação, ao contrário, deve ocupar um papel central no planejamento, implementação e análise dos sistemas de IA. Quando algoritmos operam sem supervisão, há riscos de reprodução de vieses, falhas de julgamento, erros éticos e até impactos sociais negativos. Por isso, a presença humana é o que garante o alinhamento da tecnologia com os valores, objetivos e contextos de cada organização”, reforça.
Questões regulatórias
O uso ético da IA também exige atenção às questões regulatórias. No Brasil, o Projeto de Lei 2338/2023 (PL da IA) estabelece normas para governança, transparência e segurança no uso da tecnologia, classificando os sistemas de inteligência artificial conforme o grau de risco que apresentam, do mínimo ao inaceitável, além de prever a supervisão da Autoridade Nacional de Proteção de Dados (ANPD). A proposta busca garantir que o desenvolvimento e a aplicação da IA ocorram dentro de parâmetros que protejam os direitos fundamentais dos cidadãos, como a privacidade, a não discriminação e a liberdade de expressão.
Para Machado, isso reforça a urgência de boas práticas no setor. “Regulação e governança são garantias de segurança para empresas e pessoas. A criação de diretrizes claras evita abusos, orienta o mercado e promove uma competição mais saudável, baseada em confiança e responsabilidade. Legislações como essa não devem ser vistas como barreiras à inovação, mas como impulsionadoras de um ecossistema mais maduro e sustentável. O equilíbrio entre liberdade criativa e responsabilidade legal é o que permitirá à IA evoluir com ética e propósito”,afirma.
Dicas práticas para usar IA com ética e eficiência
1 – Estabeleça uma política interna de IA, definindo onde e como a tecnologia pode ser aplicada.
2 – Revise sempre conteúdos gerados por IA com supervisão humana para garantir qualidade e veracidade.
3 – Informe seu público quando utilizar IA em materiais — seja transparente.
4 – Utilize a IA como potencializadora de criatividade, não de substituição: ela sugere, você decide.
5 – Fique atento às leis e diretrizes, como o PL da IA, adeque soluções à regulamentação vigente.
6 – Atue com responsabilidade social, evitando vieses e respeitando diversidade e privacidade.