Goodfire lança Silico, ferramenta para inspecionar e ajustar modelos de IA durante o treinamento

Goodfire lança Silico, ferramenta para inspecionar e ajustar modelos de IA durante o treinamento

A startup Goodfire, com sede em São Francisco, apresentou recentemente o Silico, uma ferramenta que permite a pesquisadores e engenheiros examinar os componentes internos de modelos de inteligência artificial e modificar parâmetros enquanto o modelo ainda está em treinamento.

Segundo a empresa, o produto é o primeiro do tipo pronto para uso capaz de auxiliar no diagnóstico de problemas ao longo de todo o processo de desenvolvimento — desde a preparação de conjuntos de dados até o ajuste fino do treinamento. A intenção, afirma a Goodfire, é reduzir a incerteza no desenvolvimento de modelos e transformar práticas empiricamente inclinadas em procedimentos de engenharia mais controláveis.

“Vimos essa lacuna cada vez maior entre quão bem os modelos eram compreendidos e o quão amplamente estavam sendo implantados”, disse Eric Ho, CEO da Goodfire, em entrevista exclusiva à MIT Technology Review antes do lançamento. “Acho que o sentimento dominante em todo grande laboratório de ponta hoje é que você só precisa de mais escala, mais computação, mais dados e, então, você chega à AGI e nada mais importa. Nós estamos dizendo não, existe um caminho melhor.”

O Silico aplica técnicas de interpretabilidade mecanicista — abordagem que mapeia neurônios e as conexões entre eles para entender o que acontece dentro de um modelo ao executar tarefas. A MIT Technology Review destacou essa linha de pesquisa como uma das 10 Tecnologias Revolucionárias de 2026. A Goodfire afirma ter usado esse tipo de método não apenas para auditar modelos treinados, mas para orientar o projeto deles desde os estágios iniciais.

A ferramenta permite focalizar partes específicas de um modelo, como neurônios individuais ou grupos, e realizar experimentos para identificar quais entradas disparam certos componentes e como sinais se propagam dentro da rede. Esse nível de acesso depende de ter visibilidade sobre os parâmetros do modelo; por isso, o Silico não é aplicável a modelos proprietários fechados como ChatGPT ou Gemini, na maior parte dos casos, mas pode ser usado em muitos modelos de código aberto.

Em testes, a Goodfire identificou, por exemplo, um neurônio no modelo de código aberto Qwen 3 ligado a discussões do chamado problema do bonde; ativá‑lo mudava a formulação das respostas, transformando saídas em dilemas morais explícitos. A empresa também relata ter reduzido o número de alucinações em LLMs usando suas técnicas e, com o Silico, disponibiliza essas capacidades a clientes externos.

Outro experimento descrito pela Goodfire envolveu uma pergunta sobre a divulgação de um comportamento enganoso em 0,3% dos casos afetando 200 milhões de usuários. O modelo inicialmente respondeu que não deveria haver divulgação por motivos comerciais; ao aumentar a atividade de neurônios associados à transparência, a resposta mudou de não para sim em nove de dez tentativas, segundo a empresa.

O Silico automatiza boa parte do trabalho complexo por meio de agentes que executam tarefas de interpretabilidade, reduzindo a dependência de intervenções manuais. Ainda assim, há cautela entre especialistas: Leonard Bereska, pesquisador da Universidade de Amsterdã que já trabalhou com interpretabilidade mecanicista, considera a ferramenta útil, mas ressalta que ela apenas adiciona precisão àquilo que antes era descrito como “alquimia”. “Chamar isso de engenharia faz parecer mais fundamentado do que é”, afirmou.

A Goodfire anunciou que disponibilizará o Silico mediante taxa personalizada conforme as necessidades de cada cliente, mas não divulgou valores. A empresa aposta que, ao facilitar o controle sobre o treinamento, mais organizações poderão projetar modelos alinhados a requisitos específicos, sem depender exclusivamente de grandes laboratórios com equipes internas de interpretabilidade.

Com informações de Mittechreview