• NoFinn
  • Posts
  • Inteligente mas caro demais: saiba como a OpenAI subestimou os custos do ‘o3’ 🤔

Inteligente mas caro demais: saiba como a OpenAI subestimou os custos do ‘o3’ 🤔

Anthropic quer que os alunos pensem mais ao utilizar o Claude, NotebookLM agora pode encontrar fontes de conteúdo sozinho & mais

E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.

Parece que o novo investimento bilionário da OpenAI não foi capaz de reduzir a preocupação da empresa com os custos do seu modelo ‘o3’ que vem superando as expectativas… Enquanto Altman e o pessoal da OpenAI estão entendendo se a conta vai fechar, a Anthropic não quer fazer parte do ‘apocalipse da IA’ e resolveu trazer uma atualização para os acadêmicos pensarem mais e desenvolverem o senso crítico. Ficou curioso? Dá uma olhada no conteúdo de hoje para saber mais do que to falando. 👇

🏃TLDR

😮 Nem o investimento bilionário da OpenAI é capaz de mitigar a preocupação com os custos de operação de seu modelo “o3", que a USD30k por tarefa, vem superando as expectativas, ou seja, é inteligente, mas também bem caro de se manter…

🤔 Pense pupilo… Claude ganhou um modo educacional que incentiva o aluno a pensar, não só copiar. Com perguntas reflexivas e guias passo a passo, o assistente vira tutor socrático, e não um resolvedor automático, uma virada ética no uso da IA em sala de aula…

🔍 NotebookLM agora encontra fontes sozinho, resume conteúdo e ainda narra tudo como podcast (em inglês somente). Ideal pra quem quer aprender (ou parecer que aprendeu) sem abrir 20 abas. A IA assume o papel de curador, tutor e roteirista…

🇧🇷 O Brasil produz pesquisa de ponta, mas engasga na aplicação prática. A DeepSeek, com IA mais barata e aberta, oferece o atalho: democratiza o acesso e permite inovação local com poucos recursos. Mas é preciso sair do papel e investir de verdade…

🧠 🔒 Com a IA gerando código em massa, a segurança precisa estar no DNA do desenvolvimento. O DevSecOps integra análise automatizada e vigilância contínua, evitando que erros (ou brechas) escapem pelo atalho da pressa. Segurança virou parte do código…

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão algumas das ferramentas que separei hoje pra você:

  • Supaboard AI - Ferramenta de Business Intelligence com modelo de IA integrado que auxiliar na construção de dashboards a partir dos seus dados.

  • Claude for Education - Modelo da Anthropic que traz inovação para o aprendizado com IA, instigando o pensamento crítico nos alunos.

  • Langflow Desktop - Uma ferramenta de desenvolvimento para construir e implementar agentes com tecnologia de IA. Traz criação visual e um servidor de API integrado que transforma cada agente em uma API

  • Neuron AI - App para iOS que traz uma IA localmente para o dispositivo, sem a necessidade de conexão com a internet para funcionar.

  • Sim Studio - Ferramenta no-code, totalmente drag-and-drop, para criação de agentes de IA que podem se integrar entre si e com ferramentas externas como Gmail e Slack.

O funcionamento do modelo o3 pode ser mais caro do que estimado pela OpenAI

A OpenAI parece ter subestimado os custos operacionais reais do seu modelo de raciocínio o3, lançado como uma grande promessa em dezembro. De acordo com uma atualização da Arc Prize Foundation, responsável pelo benchmark ARC-AGI, a configuração mais potente do o3 — chamada o3 high — pode custar até US$ 30 mil por tarefa resolvida, dez vezes mais que a estimativa inicial de US$ 3 mil. O modelo teria usado 172 vezes mais recursos computacionais que sua versão mais leve (o3 low) para alcançar o melhor desempenho, o que levanta sérias dúvidas sobre a viabilidade econômica do modelo em escala.

Ainda não há preços oficiais para o o3, mas a fundação sugere que os valores devem ser similares ao o1-pro, o modelo mais caro da OpenAI até agora. Para completar o cenário, circulam rumores de que a empresa pode lançar planos corporativos de até US$ 20 mil por mês, voltados para agentes especializados como desenvolvedores de software. E como apontou o pesquisador Toby Ord, nem sempre mais poder computacional significa maior eficiência: o o3 high teria exigido mais de mil tentativas por tarefa no ARC-AGI para atingir sua pontuação máxima. Em outras palavras, o modelo pode até ser brilhante, mas é um gênio que cobra caro e trabalha devagar.

Anthropic faz os alunos pensarem mais com o novo modo de aprendizagem do Claude

A Anthropic lançou o Claude for Education, uma versão do seu assistente de IA focada em incentivar o pensamento crítico dos alunos, em vez de apenas entregar respostas prontas. O destaque da iniciativa é o Learning Mode, um modo socrático no qual Claude responde com perguntas como “Como você resolveria isso?” ou “Qual evidência apoia essa conclusão?”, guiando o aluno a refletir em vez de copiar. O modelo já está sendo testado em universidades como Northeastern, LSE e Champlain College, sinalizando uma mudança de paradigma: IA na educação não como atalho, mas como instrumento de aprofundamento.

O projeto vai além da sala de aula. Claude também será usado por administradores universitários para analisar dados institucionais e traduzir documentos densos em linguagem acessível. A parceria com a Internet2 (que atende mais de 400 universidades nos EUA) e com o sistema Canvas abre caminho para a IA atingir milhões de estudantes. Enquanto Google e OpenAI oferecem ferramentas poderosas customizáveis, a proposta da Anthropic é mais radical: embutir a ética educacional diretamente no design do produto.

O NotebookLM do Google agora pode encontrar suas próprias fontes

A Google trouxe um upgrade para o NotebookLM, sua ferramenta de anotações com IA: agora, ela pode encontrar e selecionar automaticamente fontes relevantes da web, resumir os conteúdos e até apresentar o material em formato de áudio, com narração no estilo podcast.

Em vez de depender de documentos enviados manualmente, os usuários podem simplesmente clicar em “Discover”, digitar um tema, e deixar a IA garimpar os links — ela retorna até 10 fontes resumidas, que podem ser usadas para criar FAQs, briefings e panoramas falados.

Essas novas funções são alimentadas pelo modelo Gemini, e mostram a aposta do Google em transformar o NotebookLM num verdadeiro “copiloto de pesquisa”. A ferramenta ainda inclui um botão “I’m Feeling Curious”, que sugere fontes aleatórias para aprendizado espontâneo, no estilo Wikipédia. Para quem vive afogado em abas do navegador, essa pode ser a solução para estudar (ou procrastinar) com mais foco e menos bagunça.

Obs: Lembrando que esta funcionalidade está disponível somente em inglês, até o momento.

⚠️ Hoje iniciamos um novo quadro aqui na NoFinn, que é o ‘Brasil em destaque’. A grande maioria das principais novidades que recebemos sobre IA estão vinculadas ao exterior, com grandes potências como EUA e China dominando o mercado, por isso senti a necessidade de trazer um conteúdo abordando de forma mais profunda como a IA vem se desenvolvendo no Brasil.

Brasil em Destaque: Brasil tem base científica forte em IA, mas precisa transformar pesquisa em inovação aplicável

O Brasil é destaque na América Latina em produção científica sobre inteligência artificial, com mais de 140 unidades de pesquisa espalhadas pelo país e liderança no ranking regional de publicações. No entanto, como destaca o estudo do CGEE (Centro de Gestão e Estudos Estratégicos), o verdadeiro desafio é converter esse conhecimento em aplicações comerciais e soluções públicas concretas. A estrutura já existe, com foco em setores como saúde, indústria e agricultura, mas falta transformar a teoria em impacto. O Plano Brasileiro de Inteligência Artificial tenta fazer essa ponte, mas o processo ainda é lento, travado por gargalos de infraestrutura, financiamento e articulação entre universidades, setor privado e governo.

E é aí que a ascensão da DeepSeek entra como um “divisor de águas” no debate. Com um modelo de IA generativa mais barato, eficiente e baseado em código aberto, a empresa chinesa mostrou que é possível produzir inteligência artificial de ponta sem depender de supercomputadores, data centers gigantes ou chips caríssimos. Para o professor Glauco Arbix, da USP, isso abre uma janela de oportunidade para países como o Brasil, que têm excelência acadêmica, mas não contam com os recursos das Big Techs. A lógica muda: em vez de tentar copiar o modelo americano ou chinês, podemos adaptar essas inovações à nossa realidade — focando em soluções locais, escaláveis e acessíveis.

Na prática, isso significa parar de ser apenas consumidor de IA e assumir o papel de desenvolvedor. Com a democratização do acesso via código aberto, pesquisadores brasileiros finalmente têm chance de competir em pé de igualdade, especialmente em áreas críticas como saúde pública, educação e agronegócio. Mas isso exige vontade política, investimento direcionado e, acima de tudo, um compromisso em alinhar ciência, tecnologia e inovação com os problemas reais da sociedade. A IA deixou de ser só um tema de laboratório agora, ela é instrumento de desenvolvimento. E o Brasil precisa decidir se vai seguir como espectador... ou assumir o protagonismo.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

O que é DevSecOps e por que ele é importante na era da IA?

Com a explosão da inteligência artificial gerando códigos inteiros em segundos, garantir a segurança desses sistemas passou de “boa prática” para questão de sobrevivência digital. É nesse cenário que o DevSecOps entra como peça-chave: uma metodologia que integra segurança desde o início do ciclo de desenvolvimento, não como um pós-teste, mas como parte ativa do processo. Ou seja, se o DevOps foi a ideia de unir desenvolvedores e operações, o DevSecOps é a evolução natural — adicionando um “segurança” que não dorme no ponto. Como explica o blog da Vericode, o DevSecOps antecipa falhas, corrige vulnerabilidades enquanto o software ainda está sendo construído e transforma segurança em cultura, não em remendo de última hora.

Essa abordagem é especialmente necessária em tempos de IA e código open source desenfreado. A DeepSource, por exemplo, alerta que quase metade do código gerado automaticamente pode conter falhas críticas — e ninguém tem tempo e recursos pra revisar tudo. Ferramentas automatizadas como SAST e SCA ajudam a escanear esse tsunami de código, detectando riscos em tempo real, tanto no que é desenvolvido internamente quanto nos pacotes de terceiros que são plugados no sistema sem cerimônia. É como ter um “fiscal digital” que acompanha cada linha de código, cada biblioteca externa, e já avisa quando algo pode virar dor de cabeça — antes que a dor chegue.

Mas e os usuários comuns de IA, onde entram nisso? Simples: cada vez que você usa um assistente de IA para gerar scripts, configurar sistemas ou automatizar tarefas sensíveis, você está abrindo uma porta para potenciais riscos. DevSecOps é o que permite que essas tecnologias sejam seguras de verdade — por trás da cortina. Pense como uma casa inteligente: por mais útil que seja um assistente que liga a luz ou tranca a porta, você precisa ter certeza de que ele não vai destrancar pra qualquer um. DevSecOps é o que garante que esse sistema não só funcione, mas não te traia no processo. Em um mundo onde até a IA cria outras IAs, a segurança deixou de ser uma escolha técnica e virou uma questão existencial.

Conteúdos extras para você

Isso é tudo por hoje!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.