top of page

O mapa jurídico da IA em 2025: como o Brasil tenta equilibrar inovação, direitos e soberania

Entenda o panorama regulatório e jurídico da IA em 2025 no Brasil: PL 2338, ANPD, CNJ, MJSP e o PBIA que mira soberania e inovação.


Na cozinha de uma manhã de trabalho, entre um café e a leitura das notícias, me peguei imaginando como será contar essa história daqui a cinco anos: o ponto em que um país decidiu regular o que, até pouco tempo atrás, era tratado como mágica tecnológica. Em 2025, essa narrativa se materializa no esforço político e técnico para domar — com critérios — o poder transformador da inteligência artificial. Não é apenas sobre criar leis; é sobre desenhar um sistema que mantenha a pessoa no centro, proteja direitos e, ao mesmo tempo, não por fim ao motor da inovação. Essa tensão está no âmago do PL 2338/2023, que veio do Senado e foi remetido à Câmara com a ambição de virar o marco legal da IA no Brasil. Senado Federal+1

O mapa jurídico da IA em 2025

Houve um momento em que regulação significava apenas contenção; hoje, eu vejo legisladores, técnicos e empresários tentando escrever a mesma página com canetas diferentes: uns querem segurança, outros, fomento. O PL 2338/2023 não é um manifesto abstrato — ele define termos (IA generativa, modelos fundacionais), cria mecanismos de responsabilidade civil e propõe o Sistema Nacional de Inteligência Artificial (SIA), cujo centro de coordenação viria a ser a Autoridade Nacional de Proteção de Dados (ANPD). A escolha de colocar a ANPD no epicentro da governança algorítmica é estratégica: combina experiência regulatória em dados com novo papel fiscalizatório sobre práticas algorítmicas. Legis Senado

Mas leis federais levam tempo. Enquanto o Congresso consolida textos, o Brasil não ficou parado: o Judiciário e o Executivo definiram suas próprias trilhas. A Resolução CNJ 615/2025, por exemplo, selou a ideia da “reserva de humanidade” — a IA só pode assistir, nunca substituir o juízo humano. Ler aquele documento me fez entender que a preocupação não é puramente técnica; é civilizacional. Estabelecer que uma LLM pode ajudar a organizar precedentes, mas não assinar decisões, é afirmar um limiar ético sobre a automação do poder. Atos

No campo da segurança pública apareceu outra camada: a Portaria MJSP 961/2025 delimita o uso de tecnologias em investigações e inteligência, impondo princípios como legalidade, necessidade e proporcionalidade — e exigindo controle judicial para acesso a dados sigilosos. É um esforço de equilíbrio: permitir o uso de ferramentas avançadas sem erodir garantias fundamentais. Ao mesmo tempo, a portaria revela um problema recorrente na regulação de tecnologia: a aplicação prática depende muito de estrutura, fiscalização e transparência, elementos que ainda estão em construção. Serviços e Informações do Brasil

Se o arcabouço normativo é um lado da moeda, o outro é a política de fomento. O Plano Brasileiro de Inteligência Artificial (PBIA 2024-2028) veio com algo substantivo: cerca de R$ 23 bilhões previstos para construir infraestrutura, capacitação e difusão da IA no país. Essa aposta monetária comunica uma ideia clara: regulação sem investimento é castração; investimento sem regras é risco. O desafio é casar os dois — garantir que o fomento financie soberania tecnológica e não a dependência de soluções externas. Serviços e Informações do Brasil+1

Ao acompanhar debates sobre “alto risco”, avaliações de impacto algorítmico e exigências de explicabilidade, fico impressionado com a complexidade prática desses conceitos. Como auditar uma LLM cujo funcionamento repousa em milhões de parâmetros? Como conciliar a transparência exigida por lei com segredos industriais? Essas são perguntas que exigem respostas técnicas e políticas — não apenas dispositivos legais. A ANPD, nesse sentido, terá papel decisivo para estabelecer padrões, certificações e um mercado de compliance que torne a conformidade também um ativo competitivo. Legis Senado

Há ainda os vetores sociais: integridade das eleições, remuneração por uso de conteúdo (TDM) e o mercado de trabalho. O Brasil já deu passos setoriais — como medidas eleitorais para combater deepfakes — e incluiu no debate a necessidade de uma transição justa para trabalhadores afetados pela automação. Ao pensar nessa dimensão humana, percebo que a regulação que queremos não é apenas técnica: é uma política pública que cuida de pessoas, renda e coesão social. Serviços e Informações do Brasil

No fim do dia, escrevendo notas e conversando com quem elabora políticas, fica claro: o Brasil escolheu um caminho híbrido. Não quer uma jaula legislativa tão rígida quanto a do AI Act europeu, nem um laissez-faire ao estilo puramente “soft law”. Optou por combinar hard law de princípios com instrumentos de fomento e sandboxes regulatórios, buscando resguardar direitos e incentivar capacidades locais. Se esse modelo dará certo, vai depender menos do papel final do PL 2338/2023 e mais da implementação prática: fiscalização competente, mercados de certificação robustos e investimento em pessoas. É por aí que se mede a maturidade de um marco: na sua capacidade de transformar lei em prática, risco em confiança e tecnologia em bem público. O mapa jurídico da IA em 2025


— Chip Spark.

Comentários


bottom of page