• NoFinn
  • Posts
  • Dê olá aos novos modelos da OpenAI: o3 e o4-mini 👋

Dê olá aos novos modelos da OpenAI: o3 e o4-mini 👋

Agora o silício pode “pensar” ou quase isso, Nvidia espera preju de US$ 5,5 bi & mais

E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.

Enquanto todo mundo se empolga com IA que gera vídeo, imagem e opinião sobre seu café da manhã, os bastidores da revolução seguem com menos glamour e mais impacto.

Hoje, falamos de modelos que pensam com imagens, transistores que viram neurônios, empresas perdendo bilhões por causa de chips, e o que realmente faz a diferença no final: a infraestrutura.

Se você acha que IA vai mudar tudo, mas ainda depende do Wi-Fi do escritório pra funcionar… O conteúdo de hoje é pra você 👇

🏃TLDR

🤖 OpenAI lança o3 e o4-mini: modelos “raciocinadores” que agora “pensam com imagens”. O o3 é o mais avançado da casa, e o o4-mini é a versão compacta e barata. Ambos podem analisar até fotos de rabiscos feitos a mão, usam Python, navegam na web e tentam parecer inteligentes sem parecer alucinados…

🧠 Cientistas de Singapura transformaram um transistor de silício comum em uma “célula” capaz de simular um neurônio e suas sinapses, tudo com tecnologia do dia a dia, sem usar componentes inacessíveis para meros mortais. Um passo importante na evolução do hardware para IA, com mais engenharia envolvida…

📉 As ações da Nvidia despencaram após o governo dos EUA exigir licença para exportar o chip H20 à China. Resultado: Inventário encalhado, contratos congelados e o sinal claro de que chips viraram arma de guerra comercial…

⚙️ Infraestrutura de IA: hora de olhar para o back-end. Sumedh Nadendla, líder de investimentos na Pacific Alliance Ventures, diz que a IA só vai escalar com AI enablers: ferramentas básicas, feias e essenciais. Três pilares: workflows duráveis, gestão de recursos e DevOps ajustado para IA. A revolução precisa de mais back-end e menos demo viral…

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão as ferramentas que separei hoje para você:

  • Boxo - Implante rapidamente recursos gerados por IA em seu aplicativo móvel sem necessidade de integração complexa.

  • Claude Research - Nova ferramenta que integra o Claude ao Google Workspace, permitindo pesquisas avançadas e integração com seus apps de trabalho do dia a dia.

  • Agent Development Kit - Crie sistemas multiagentes com a estrutura aberta do Google usando uma estrutura de código aberto.

  • PromptBlaze - Ferramenta que armazena, organiza e executa prompts baseados em texto.

OpenAI lança dois novos modelos: o3 e o4-mini e um deles pode até analisar imagens

A OpenAI lançou seus novos modelos de IA: o3 e o4-mini, que agora “pensam com imagens”. Isso significa que você pode subir um rabisco feito no quadro branco e esperar que a IA analise, interprete e responda com base naquilo. O o3, segundo a empresa, é o modelo com maior capacidade de raciocínio já criado por eles, superando todos os anteriores em matemática, ciência, código e interpretação visual. O o4-mini é a versão “menos pretensiosa”, oferecendo bom desempenho com preço e velocidade mais acessíveis. Ambos já estão disponíveis para usuários dos planos pagos do ChatGPT.

A promessa aqui é clara: IA mais autônoma e multimodal. Esses modelos podem usar web browsing, executar código Python, entender imagens e até gerar outras, tudo isso sem precisar de prompts complexos ou comandos mágicos. O o3, por exemplo, conseguiu 69,1% de acerto no benchmark SWE-bench (para tarefas de programação), enquanto o o4-mini ficou com 68,1%. O detalhe curioso é que o modelo quase não foi lançado, a ideia original era segurar essa tecnologia para ser lançada em um outro momento, mas, como a concorrência não para (Google, Anthropic, xAI…), a OpenAI resolveu não se prolongar mais.

E claro, o lançamento veio com o clássico combo da casa: nomes confusos, promessas grandiosas e uma pitada de polêmica sobre segurança. Os modelos passaram por testes internos “rígidos”, mas a empresa já sinalizou que pode alterar as regras dependendo do que os concorrentes fizerem. Transparência? Nem tanto, o GPT-4.1, por exemplo, foi lançado sem o “model card” de praxe.

Mas pelo menos agora você pode desenhar um boneco palito, subir a imagem e ver a IA filosofar sobre a cena.

Ensinando o Silício a pensar: Cientistas transformaram um transistor comum, do dia-a-dia em um neurônio artificial

Cientistas da Universidade Nacional de Singapura (NUS) conseguiram transformar um transistor comum (sim, aquele presente em praticamente todo chip de computador ou celular) em um neurônio artificial funcional, capaz de simular tanto o disparo neural quanto o comportamento de sinapses. A façanha foi alcançada sem novos materiais mágicos ou designs futuristas: só com um pouco de física hardcore e criatividade aplicada ao bom e velho silício. O nome da invenção? NS-RAM, uma célula com dois transistores que opera como neurônio ou sinapse, dependendo do modo.

A mágica acontece ao manipular dois fenômenos dentro do transistor: ionização por impacto e aprisionamento de carga. Com isso, o dispositivo imita o comportamento neural de forma muito mais próxima do que qualquer rede neural artificial da moda que, sejamos honestos, até hoje só pega emprestado o nome “neuronal” pra parecer esperta. O diferencial aqui é que isso tudo foi feito usando tecnologia CMOS padrão, a mesma dos chips que já estão nas fábricas e smartphones, o que abre espaço para escala industrial real.

O resultado? Um hardware promissor para IA que não precisa de 14 GPUs ligadas em um supercomputador da NASA, conectado em uma usina nuclear pra funcionar. O NS-RAM demonstrou baixo consumo de energia, estabilidade em ciclos repetidos e comportamento previsível, e sabemos que essas três coisas andam em falta nos modelos atuais. Em resumo: talvez estejamos mais perto do cérebro de silício do que dos devaneios de LLMs que citam estudos inexistentes.

Ações da Nvidia despencam. Empresa espera prejuízo de US$ 5,5 bilhões devido às regras de exportação para a China

A Nvidia anunciou que vai tomar um prejuízo de US$ 5,5 bilhões por causa das novas restrições dos EUA à exportação de chips para a China. O alvo é o chip H20, um dos queridinhos da IA chinesa, que agora exige licença para ser exportado. O governo americano justificou dizendo que os chips poderiam acabar alimentando supercomputadores chineses.

O resultado disso tudo foi que as ações da Nvidia afundaram 6,5% e o mercado tremeu junto. Apesar do susto e da cifra impressionante, analistas dizem que a Nvidia aguenta o tranco. Mas o recado geopolítico está dado: chips viraram arma estratégica, e ninguém quer ver sua tecnologia abastecendo o concorrente. Especialistas como Rui Ma apontam para uma “desconexão total” das cadeias de suprimento de IA entre EUA e China se essas medidas continuarem. Ou seja, estamos vendo o nascimento de dois ecossistemas paralelos de semicondutores e talvez a era das “exceções diplomáticas” tenha mesmo acabado.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

A próxima fase da adoção da IA depende dos facilitadores da IA

A adoção em larga escala da inteligência artificial não vai acontecer com prompts bonitinhos nem com demos virais no X. Vai acontecer (ou não) dependendo do surgimento de uma nova geração de ferramentas discretas, chamadas de ‘AI Enablers’ por Sumedh Nadendla (líder de investimentos na Pacific Alliance Ventures).

São aquelas tecnologias que ninguém posta no LinkedIn, mas que sustentam tudo por trás: infraestrutura de nuvem confiável, gerenciamento eficiente de recursos, e um DevOps que funcione mesmo quando o modelo começa a delirar. Segundo o autor, estamos num ponto semelhante ao início da internet, quando empresas como Cisco, Sun e Oracle prepararam o terreno para o que viria depois.

Esses “viabilizadores de IA” se organizam em três pilares:

  • O primeiro é workflow durável e confiável, onde resultados são reproduzíveis e bugs não surgem do nada porque alguém usou um emoji no prompt.

  • O segundo é gerenciamento de recursos, com ferramentas específicas para lidar com os custos e a complexidade de rodar IA em escala, algo que os atuais frameworks, otimizados para apps tradicionais, ainda engasgam.

  • O terceiro é DevOps para IA, com automação de testes, builds remotos, e integração contínua ajustada para pipelines que misturam dados, modelos e códigos em constante mutação.

A mensagem central é clara (e desconfortável para quem só quer gerar um app com um clique): IA em produção exige maturidade técnica. O futuro promissor de produtividade 10x, integração total e modelos que raciocinam sozinhos vai depender de investimentos em infraestrutura que ninguém quer bancar agora. E, como sempre, quem construir essa base, mesmo sem holofotes, vai colher os frutos quando os “Copilots da moda” virarem só mais uma camada na pilha de dependências.

Conteúdos extras para você

Isso é tudo por hoje!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.