Especialistas defendem amplo acesso a dados para treinar modelos de IA e evitar erros

O Judiciário

17/06/2025 – 19:08  

Zeca Ribeiro / Câmara dos Deputados

Prado vê artigos sobre direitos autorais como obstáculos

Especialistas em inteligência artificial (IA) chamaram a atenção de deputados nesta terça-feira (17) para pontos críticos do processo de regulação dessa tecnologia no país, como imprecisões em conceitos e possíveis restrições no acesso a dados para o treinamento de modelos de IA.
“Todos os problemas são agravados se tiver uma limitação no treinamento dos modelos de inteligência artificial”, afirmou Luis Fernando Prado, líder do Comitê da IA Responsável e membro do Conselho Consultivo da Associação Brasileira de Inteligência Artificial (Abria).
Prado, que participou do debate na comissão especial da Câmara dos Deputados que analisa regras para o uso de IA no Brasil – Projeto de Lei 2338/23, do Senado –, apontou como obstáculos, por exemplo, os artigos 62 a 66 da proposta, que tratam especificamente de direitos autorais. Ele avalia que os artigos inviabilizam o treinamento de IA no País. “A percepção que a gente vai ter se o sistema é ético, é seguro, se não é discriminatório, se respeita a Constituição, depende de quão bem treinado esse sistema foi. E, para isso, basicamente a gente vai precisar de uma diversidade de dados representativos”, acrescentou.
Rodrigo Ferreira, assessor da Diretoria de Governança, Orçamento e Finanças da Casa da Moeda do Brasil, reforçou a importância do treinamento dos modelos e argumentou que o Brasil deve focar nos riscos, e não apenas na tecnologia. “A estratégia estabelecida pelo Congresso e pelo Executivo deve evitar conflitos, como, por exemplo, ter uma regulação que impeça o treinamento de modelos de IA com dados brasileiros, quando a estratégia for exatamente desenvolver modelos compatíveis com as características nacionais”, pontuou.
Racismo algorítmicoPara Ferreira, a prevenção da discriminação algorítmica é um ponto chave da regulamentação, o que exige dados de treinamento que permitam reduzir preconceitos. Ele ressaltou que a legislação atual de proteção de dados, especialmente para dados sensíveis, traz limitações a esse uso.
O deputado Orlando Silva (PCdoB-SP) considera o racismo algoritmo um tema supersensível. “De verdade, a Lei Geral de Proteção de Dados Pessoais (LGPD) restringe o interesse legítimo se aplicado em dados sensíveis”, observou. “Mas se nós não temos o critério raça sendo aplicado ao treinamento de máquina, sim, nós podemos ter base para a operação, digamos assim, racista do algoritmo”, acrescentou.
Como exemplo, a deputada Fernanda Melchionna (Psol-RS) descreveu um caso em que, ao usar uma ferramenta de IA inspirada na Disney Pixar, uma usuária inseriu a descrição “mulher negra na favela” e a IA gerou a imagem de “uma mulher armada como se bandida fosse”. “Esse não é um caso isolado, mas sim um reflexo da transferência de preconceitos sociais para o ambiente tecnológico”, alertou.
Relator da comissão, o deputado Aguinaldo Ribeiro (PP-PB) adiantou que busca um texto que equilibre inovação e proteção.  “A minha provocação aqui para todos é: como a gente pode afunilar no texto que está proposto, que é o Projeto de Lei 2338/23, essa questão de reduzir os riscos, preservar os direitos do cidadão e também permitir o máximo de inovação?”, questionou.
Ambiente favorávelRepresentando empresas do setor, o diretor-executivo da Dharma.AI, Gabriel Renault, e o diretor de políticas da OpenAI para o Caribe e a América Latina, Nicolas Andrade, defenderam um ambiente regulado favorável como meio de atrair investimentos para o Brasil.
“Investimentos, seja no treinamento de modelos, na abertura de pequenas e grandes empresas ou em infraestrutura (data centers), vão fluir na direção de países com ambientes regulatórios favoráveis, porque são [investimentos] de longo prazo e com custo altíssimo”, ressaltou Andrade, da OpenAI, criadora do ChatGPT.
Para Renault, o País não deve focar apenas em grandes modelos de IA generativa ou em modelos internacionais, mas, sim, deve aproveitar a oportunidade para estimular modelos de IA especializados em português e em setores específicos, como o industrial.
Em relação ao projeto de lei do Senado, Andrade propôs as definições técnicas mais claras, distinguindo, por exemplo, um modelo de IA de um sistema. “É como falar em motor e carro. A regulação deve ser diferente.”

Zeca Ribeiro / Câmara dos Deputados

Marina Pita: “Texto é flexível e projetado para a realidade brasileira”

Texto equilibradoRepresentante da Secretaria de Comunicação Social da Presidência da República, Marina Pita defendeu o texto já aprovado pelo Senado. “O texto foi bastante aprimorado. É flexível, projetado para a realidade brasileira, reconhece direitos, protege a partir da simetria orientada por grau de risco e incentiva a inovação”, pontuou.
Paula Guedes, representante da Organização Não Governamental Artigo 19, também avalia o projeto vindo do Senado como equilibrado e igualmente destaca a abordagem baseada em riscos e direitos, em que a intensidade da regulamentação e as obrigações dos desenvolvedores de IA se ajustam conforme o nível de risco do sistema.

Reportagem – Murilo SouzaEdição – Ana Chalub

Compartilhe este arquivo