• NoFinn
  • Posts
  • Sakana AI apresenta seu modelo que pensa sem precisar de prompts 💭

Sakana AI apresenta seu modelo que pensa sem precisar de prompts 💭

OpenAI apresenta benchmark para avalair IAs em tarefas clínicas, Trump revoga regras de Biden para exportação de chips de IA & mais

E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.

E aqui está a sua dose de hoje 👇

🏃TLDR

🐟 Sakana AI revela a CTM, uma arquitetura de IA que pensa continuamente. A Continuous Thought Machine (CTM) usa dinâmica neural sincronizada e raciocínio contínuo para resolver problemas de forma mais interpretável, com menor dependência de prompts. Um passo rumo à cognição emergente, inspirada na biologia, sem copiá-la…

🏥 OpenAI lança HealthBench para avaliar IAs em tarefas clínicas reais. O benchmark mede desempenho em diagnósticos, condutas e prognóstico, comparando modelos como GPT-4 com médicos humanos. O objetivo é padronizar a avaliação de LLMs na saúde e expor falhas como alucinações e baixa explicabilidade…

🇺🇸 Trump revoga regras de Biden sobre exportação de IA e chips avançados. A nova diretriz abandona bloqueios amplos e aposta em acordos bilaterais. O setor privado comemora a flexibilização, mas cresce a dúvida: como os EUA manterão controle tecnológico sem travar o comércio?

🧠 Escalar IA que “raciocina” ainda é possível, mas por pouco tempo. Segundo a Epoch AI, o crescimento explosivo de modelos como o o3 pode durar mais um ano antes de esbarrar no teto de capacidade computacional. O próximo gargalo pode ser a diversidade de problemas complexos para treinar os modelos…

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão as ferramentas que separei hoje para você:

  • Deer Flow - Ferramenta de pesquisa profunda de código aberto da ByteDance.

  • AI Meeting Notes do Notion - Ferramenta para fazer anotações de reuniões, conectando-se com o seu Notion

  • Zetta - Plataforma de análise de dados com IA conversacional, insights automatizados, dashboards e um data warehouse.

  • Vapi - Agentes de IA de voz para desenvolvedores. Vapi fornece tudo o que é necessário para construir, testar e implementar um agente de voz.

  • ClarityDocs - Ferramenta de IA parar aumentar a produtividade em fluxos de trabalho com muitos documentos, permitindo a conversa com eles para obter insights.

Sakana AI apresenta as Máquinas de Pensamento Contínuo

A Sakana AI, laboratório japonês fundado por ex-pesquisadores do Google DeepMind e do Google Brain, revelou a Continuous Thought Machine (CTM), uma nova arquitetura de IA que busca romper com a lógica tradicional dos transformers e se aproximar mais do modo como cérebros biológicos realmente funcionam. O modelo usa uma abordagem centrada na sincronização entre dinâmicas neurais ao longo do tempo, o que permite à IA “pensar” de forma contínua, interpretável e incremental. A CTM não processa tudo de uma vez como um transformer comum, ela raciocina em etapas, com memória interna e capacidade de adaptação baseada em histórico.

O ponto central da proposta é resgatar uma dimensão até agora negligenciada na maioria dos LLMs: tempo como variável cognitiva. Em vez de simplesmente calcular uma resposta a partir de um input, a CTM registra e utiliza o histórico de ativação de cada “neurônio” artificial, e aprende a sincronizar esses sinais ao longo de múltiplos ciclos de processamento. O comportamento que emerge disso é surpreendente: ao resolver labirintos ou classificar imagens, o modelo exibe atenção progressiva e planejamento explícito, como se traçasse caminhos ou percorresse visualmente partes de uma foto. Isso ocorre sem que essa habilidade tenha sido programada, é efeito colateral da arquitetura temporal e da sincronização entre “neurônios”.

Os resultados são promissores: mais interpretabilidade, maior eficiência energética (a CTM “pensa mais” apenas quando necessário) e desempenho competitivo em benchmarks como ImageNet, com atenção visual que se aproxima da humana em padrões de foco e decisão. O modelo também oferece uma alternativa aos atuais paradigmas de raciocínio simbólico embutido em LLMs, como chain-of-thought prompting ou scratchpads, sugerindo que o raciocínio pode vir do próprio design do modelo, e não do prompt.

Para além do hype técnico, a CTM representa uma declaração filosófica: é hora de se reconectar com a biologia, mas sem copiar cegamente o cérebro. Em vez disso, a Sakana propõe uma IA inspirada em princípios biológicos, tempo, plasticidade, coordenação neural, com arquitetura eficiente e viável para produção. A empresa publicou demonstrações visuais, código e um relatório técnico completo, reforçando o compromisso com abertura científica. No horizonte: modelos que raciocinam de forma mais orgânica, talvez menos “engenharia de prompt” e mais cognição emergente.

OpenAI: Apresentando o HealthBench

A OpenAI lançou o HealthBench, um benchmark dedicado a avaliar com rigor como modelos de linguagem (LLMs), como o GPT-4, se comportam em tarefas médicas reais. O objetivo é estabelecer um padrão de comparação robusto para IA aplicada à saúde, focando em segurança clínica, precisão diagnóstica e responsabilidade ética. Diferente de benchmarks tradicionais como MMLU ou MedQA, o HealthBench foca em situações de uso reais e diversificadas, com perguntas feitas por médicos, estudantes e pacientes.

O benchmark reúne 39 tarefas clínicas organizadas em categorias como interpretação de exames, plano terapêutico, triagem, prognóstico, exames físicos e educação do paciente, usando dados de fontes como MedQA, MedMCQA, PubMedQA, entre outros. O GPT-4 obteve desempenho comparável ao de médicos humanos em várias tarefas, mas também demonstrou áreas críticas com alucinações e falhas em fornecer evidência confiável, especialmente em tarefas de prognóstico e conduta terapêutica.

O HealthBench avalia não só a acurácia, mas também consistência temporal, explicabilidade, viés e impacto clínico potencial, reforçando o papel da IA como ferramenta assistiva, e não substituta, de julgamento médico humano. O benchmark é aberto, extensível e alinhado com os princípios de governança da OpenAI, permitindo que outras organizações avaliem seus próprios modelos com base no mesmo critério.

Governo Trump revoga oficialmente as regras de difusão de IA de Biden

A administração Trump revogou oficialmente a regra de difusão de IA criada por Biden, dias antes de sua entrada em vigor. O regulamento previa restrições em três níveis para a exportação de chips de IA de fabricação americana, com foco em conter o uso em países como China e Rússia.

A proposta estabelecia uma divisão geopolítica entre “parceiros confiáveis” (como Japão e Coreia do Sul), países intermediários (México, Portugal etc.), e “adversários estratégicos”. Agora, a nova diretriz é abandonar bloqueios amplos e negociar diretamente com cada país, privilegiando acordos bilaterais e evitando medidas que afetem aliados ou causem incerteza para as empresas.

No lugar da regra, o Departamento de Comércio divulgou apenas orientações temporárias, reforçando que o uso de chips da Huawei (como o Ascend) continua proibido globalmente, e alertando sobre riscos de desvio de chips para treinar IAs na China. A revogação foi acompanhada de um posicionamento político claro: o governo Trump considera a política anterior “mal concebida e contraproducente”, e promete uma abordagem mais “inclusiva” com parceiros, ao mesmo tempo em que promete manter “IA americana longe das mãos dos adversários”.

A medida é vista como uma vitória do setor privado, que vinha pressionando contra a rigidez das restrições de Biden. Mas também levanta dúvidas sobre como os EUA pretendem garantir segurança tecnológica sem comprometer o comércio e a competitividade. Num momento em que empresas como Nvidia, AMD e até startups como Groq e Tenstorrent tentam expandir mercado fora dos EUA, a revogação pode representar uma abertura com consequências estratégicas profundas, tanto para inovação quanto para controle geopolítico da IA.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

Até que ponto os modelos de raciocínio podem ser dimensionados?

Modelos de raciocínio como o o3 da OpenAI representam um novo estágio nos LLMs: treinados não só com grandes volumes de dados (pré-treinamento), mas também com uma etapa dedicada chamada "reasoning training", baseada em reforço supervisionado para resolver problemas complexos. O artigo analisa se, e por quanto tempo, esse tipo de treinamento ainda pode escalar rapidamente, como ocorreu com o salto de o1 para o o3 (um aumento de 10× em poucos meses). A resposta: sim, mas só por mais um tempo. Se mantido esse ritmo, modelos como o o4 podem atingir o teto de capacidade computacional global já no próximo ano.

A análise usa estimativas indiretas de compute (FLOPs) de modelos como DeepSeek-R1, Llama-Nemotron Ultra e Phi-4-reasoning, para comparar escalas de custo e performance. O custo da etapa de raciocínio (RL) ainda é baixo em relação ao pré-treinamento, mas já é significativo e crescente. O o3, por exemplo, já exige volumes de computação consideráveis, e há indícios de que apenas mais 2 ou 3 saltos separarão o presente do limite de escalabilidade atual. Além disso, o artigo alerta que nem tudo se resolve com mais GPUs: criar problemas de treino realmente desafiadores e diversos será o próximo gargalo.

Uma das projeções é que o desempenho dos modelos de raciocínio seguirá por um tempo as clássicas leis de escala log-lineares, como já acontece no pré-treinamento. Mas quando o compute parar de crescer 10× a cada versão e passar a crescer “apenas” 4× por ano (como a média da indústria), a melhoria na performance também deve desacelerar. Ainda assim, há espaço para inovação em dados, arquiteturas e algoritmos. O CEO da Anthropic, Dario Amodei, reforça esse ponto: estamos no começo da curva de aprendizado do raciocínio artificial, com muito ainda por explorar.

Conteúdos extras para você

Isso é tudo por hoje!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.