
Por Marcelo Ciasca*
Estamos testemunhando a maneira como a inteligência artificial (IA) está redefinindo o conceito de código aberto, expandindo o debate para além do software tradicional. Modelos de IA, dados de treinamento e a própria governança dessa tecnologia agora ocupam o centro da discussão. O problema é que muitas empresas adotam o rótulo de “aberto” sem, de fato, oferecer a transparência esperada. Isso levanta uma questão essencial: o que realmente significa uma IA aberta?
A resposta está longe de ser simples. A recente controvérsia envolvendo a DeepSeek e a OpenAI reacendeu um debate: quais devem ser as verdadeiras liberdades da IA aberta? Se no início do século o software livre estabeleceu os pilares fundamentais de execução, estudo, redistribuição e modificação, agora precisamos definir um novo conjunto de princípios que guiem a inovação sem comprometer transparência, ética e acessibilidade.
Na teoria, o código aberto na IA deveria garantir liberdade para explorar e modificar tecnologias. Na prática, muitas empresas se aproveitam desse conceito sem oferecer acesso real a dados de treinamento e pesos dos modelos, tornando a abertura superficial. A Open Source Initiative (OSI) propôs a OSAID 1.0, um conjunto de diretrizes para padronizar o que pode ser considerado IA de código aberto. Mas será que isso resolve o problema?
A transparência na IA não se resume ao código. Para um sistema ser realmente aberto, deve-se garantir acesso aos dados que o treinaram, permitir auditorias e oferecer mecanismos de governança claros. Sem isso, a ideia de IA aberta se torna um rótulo vazio.
As novas liberdades da IA
A evolução da IA exige novas liberdades. Especialistas como Ksneia, conselheira da Track Two: An Institute for Citizen Diplomacy, propõem conceitos fundamentais para o futuro da IA aberta. Entre eles, a liberdade de acesso, que garante que modelos e pesquisas sejam acessíveis a todos, promovendo uma inovação descentralizada. Outro ponto essencial é a liberdade para entender, assegurando que os sistemas sejam interpretáveis e não se tornem “caixas-pretas” indecifráveis. Além disso, a liberdade para esquecer permitiria que usuários solicitassem a remoção de determinados dados dos modelos, seja por privacidade ou pela necessidade de atualização das informações.
Os modelos também precisam manter flexibilidade, evitando treinamentos excessivamente restritivos que limitem sua adaptação. O equilíbrio entre inovação e governança será o diferencial para o futuro.
A Open Source Initiative (OSI) está na vanguarda dessa discussão e lançou a OSAID 1.0, um padrão que estabelece critérios mínimos para que uma IA seja considerada realmente aberta. Isso inclui o acesso aos dados usados no treinamento, ao código-fonte do modelo e às configurações do treinamento. No entanto, grandes empresas como Meta e OpenAI promovem seus modelos como “abertos”, mas sem liberar informações essenciais, levantando questionamentos sobre a real transparência dessas iniciativas.
Além disso, a governança dos dados usados para treinar IA continua sendo um ponto crítico. Enquanto alguns defendem transparência total, há preocupações legítimas sobre privacidade e uso indevido das informações. A OSI, em parceria com a Open Future Foundation, propôs diretrizes para um acesso mais equilibrado e ético a esses dados, garantindo um meio-termo entre inovação e responsabilidade.
A indústria precisa de uma definição clara do que realmente constitui uma IA aberta. O caso da DeepSeek e sua suposta “destilação” dos modelos da OpenAI expõe os desafios de uma IA que se diz aberta, mas que pode não garantir transparência real. Definir a IA de código aberto requer colaboração e aprimoramento contínuo. É um desafio, mas essencial para impulsionar a inovação sem perder de vista a liberdade e a responsabilidade.
O desafio agora é avançar na definição de um novo conjunto de liberdades para a IA garantindo um equilíbrio entre inovação, transparência e governança. O debate está apenas começando, e as escolhas que fizermos hoje influenciarão o futuro da inteligência artificial. A verdadeira liberdade da IA Aberta não é apenas sobre compartilhar tecnologia, mas garantir que seu desenvolvimento seja feito de forma colaborativa, responsável e acessível a todos.
*Marcelo Ciasca é CEO Brasil do Grupo Stefanini.