- NoFinn
- Posts
- DeepSeek V3 chegou para ficar no topo 🐋
DeepSeek V3 chegou para ficar no topo 🐋
OpenAI lança novidade no Modo de Voz Avançado do GPT, Chineses têm grande avanço no treinamento de modelos usando chips de IA locais & mais
E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.
E aqui está a sua dose de hoje 👇
🏃TLDR⌚
🔥 A versão mais recente do modelo de IA DeepSeek V3-0324 está mudando as regras do jogo. Ele se tornou o modelo open-source não-raciocínio com melhor desempenho do mundo, superando versões pagas como Gemini 2.0 Pro, Claude 3.7 Sonnet e LLaMA 3.3 70B…
🗣️ A OpenAI lançou uma nova versão do Advanced Voice Mode do ChatGPT com melhorias importantes na forma como o assistente interage por voz. Agora, o modelo interrompe menos durante pausas naturais na fala do usuário — como quando a pessoa respira ou pensa — e responde de maneira mais direta, envolvente, específica e criativa, segundo a própria empresa…
🇨🇳 A Ant Group, gigante fintech ligada ao Alibaba, anunciou um avanço significativo ao treinar modelos de IA usando exclusivamente chips chineses, fabricados pela Alibaba e Huawei. Segundo a empresa, essa abordagem reduziu os custos de treinamento de IA em 20%, sem comprometer a performance, que teria ficado próxima à dos chips da Nvidia…
🧠A Arc Prize Foundation, cofundada por François Chollet, lançou o ARC-AGI-2, um novo teste para medir inteligência geral artificial que deixou praticamente todos os modelos de IA para trás. Modelos avançados de raciocínio como o OpenAI o1-pro e o DeepSeek R1 mal passaram de 1% de acerto, enquanto modelos populares como GPT-4.5, Claude 3.7 Sonnet e Gemini 2.0 Flash também ficaram na casa do 1%…
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão algumas das ferramentas que separei hoje pra você:
Sitelifter - Ferramenta com tecnologia de IA que ajuda você a otimizar páginas de sites para melhor design, mensagens, fluxo de usuários e conversões.
Ragie Connect - Ferramenta que lida com autenticação e sincronização automática de dados do usuário do Google Drive, Salesforce, Notion e muitos outros, para que você possa facilmente construir o RAG em cima dos dados dos seus usuários.
Add to Sheets - Salve qualquer conteúdo da web no Planilhas Google com um clique.
Falcon AI - Scrum Master de IA.
Ventur for Startups - Acelere sua rodada de financiamento com mais de 10.000 investidores.
O DeepSeek-V3 agora roda a 20 tokens por segundo no Mac Studio, e isso é um pesadelo para a OpenAI

A versão mais recente do modelo de IA DeepSeek V3-0324 está mudando as regras do jogo. Ele se tornou o modelo open-source não-raciocínio com melhor desempenho do mundo, superando versões pagas como Gemini 2.0 Pro, Claude 3.7 Sonnet e LLaMA 3.3 70B. Mesmo não sendo projetado para raciocínio complexo, o V3-0324 se destaca em velocidade, eficiência e capacidade de resposta em tempo real, o que o torna ideal para usos como atendimento ao cliente e tradução instantânea.
O modelo também representa uma revolução técnica. Apesar de ter 685 bilhões de parâmetros totais, ele ativa apenas 37 bilhões em cada tarefa, usando uma arquitetura Mixture-of-Experts (MoE) que o torna extremamente eficiente. Graças a técnicas como Multi-Head Latent Attention e Multi-Token Prediction, ele alcança 20 tokens por segundo até mesmo em um Mac Studio com chip M3 Ultra, algo impensável para modelos desse porte até pouco tempo. Isso representa um golpe direto na estratégia de infraestrutura pesada da OpenAI, que depende de nuvem e servidores caros para rodar seus modelos.
Além da parte técnica, o que mais chama atenção é o modelo de distribuição: licença MIT, gratuito para uso comercial e sem grandes campanhas de marketing — apenas os pesos disponíveis na Hugging Face. Essa abordagem contrasta fortemente com o modelo fechado de empresas ocidentais e está acelerando a adoção global da IA chinesa.
OpenAI diz que seu assistente de voz de IA agora é melhor para conversar

A OpenAI lançou uma nova versão do Advanced Voice Mode do ChatGPT com melhorias importantes na forma como o assistente interage por voz. Agora, o modelo interrompe menos durante pausas naturais na fala do usuário — como quando a pessoa respira ou pensa — e responde de maneira mais direta, envolvente, específica e criativa, segundo a própria empresa. As atualizações chegam tanto para usuários gratuitos quanto para assinantes dos planos pagos (Plus, Teams, Edu, Business e Pro), com melhorias mais avançadas disponíveis para quem paga.
A mudança chega em meio à pressão crescente no mercado de assistentes de voz com IA, com concorrentes como a startup Sesame (apoiada pela Andreessen Horowitz) ganhando destaque por vozes incrivelmente naturais, além da Amazon preparando uma nova versão do Alexa baseada em LLM. A OpenAI parece estar reagindo a esse cenário tentando tornar seu assistente menos robótico e mais paciente — algo essencial para tornar o uso por voz realmente fluido no dia a dia.
Gigante tecnológica chinesa diz que reduziu custos de IA usando apenas chips chineses
![]() | A Ant Group, gigante fintech ligada ao Alibaba, anunciou um avanço significativo ao treinar modelos de IA usando exclusivamente chips chineses, fabricados pela Alibaba e Huawei. Segundo a empresa, essa abordagem reduziu os custos de treinamento de IA em 20%, sem comprometer a performance, que teria ficado próxima à dos chips da Nvidia. |
Se isso se confirmar, pode ser um golpe na posição dominante da Nvidia, que hoje lidera o mercado global de hardware para IA.
A notícia chega em um momento em que os EUA tentam restringir o acesso da China aos chips mais avançados, como as GPUs Blackwell da Nvidia, que ainda encontram caminho para o mercado chinês apesar das sanções. No início do ano, a startup DeepSeek já havia causado uma queda temporária nas ações da Nvidia ao demonstrar que seu modelo de IA consome muito menos chips do que o esperado, reduzindo a dependência da empresa americana. Agora, com a Ant Group reforçando essa tendência, o setor de IA pode estar à beira de uma transformação no fornecimento de hardware.
A grande questão é se essas GPUs chinesas realmente conseguirão desafiar o domínio da Nvidia ou se ainda há uma lacuna tecnológica a ser preenchida. Se os chips locais se provarem eficientes o suficiente, isso pode acelerar a independência da China na corrida da IA e remodelar todo o mercado global de semicondutores.
🇧🇷 Novidade do setor para o Brasil 🇧🇷
Voa Health, uma startup de IA brasileira que ajuda médicos a transcrever consultas e gerar registros de pacientes levante US$ 3 milhões, com uma avaliação de R$ 100 milhões.
Brasil vai investir R$ 13 bilhões em infraestrutura, software e serviços de IA.
Fiocruz lança IA para ajudar no registro de pesquisas clínicas.
Mais notícias ao redor do mercado de IAs
A n8n arrecada US$ 60 milhões para automação de fluxo de trabalho com tecnologia de IA.
O fundador da Outreach, Manny Medina, tem uma nova startup que ajuda agentes de IA a serem pagos.
Executivo do Alibaba alerta sobre superaquecimento do mercado de infraestrutura de IA.
Novo modelo Reve, de geração de imagens a partir de textos é lançado e chega ao topo.
Como o maior unicórnio de IA do Japão está moldando o futuro do aprendizado profundo.
Microsoft: Usando IA para monitorar o progresso global da energia limpa.
Um novo e desafiador teste de AGI supera a maioria dos modelos de IA

A Arc Prize Foundation, cofundada por François Chollet, lançou o ARC-AGI-2, um novo teste para medir inteligência geral artificial que deixou praticamente todos os modelos de IA para trás. Modelos avançados de raciocínio como o OpenAI o1-pro e o DeepSeek R1 mal passaram de 1% de acerto, enquanto modelos populares como GPT-4.5, Claude 3.7 Sonnet e Gemini 2.0 Flash também ficaram na casa do 1%. Em contraste, painéis de humanos alcançaram cerca de 60% de acertos, mostrando que ainda há um longo caminho até a IA pensar como a gente.
O teste consiste em identificar padrões visuais em grades coloridas — como se fosse um quebra-cabeça lógico — e gerar a grade correta como resposta. A ideia é medir a capacidade da IA de adquirir novas habilidades fora do que ela já viu nos dados de treinamento. A nova versão do teste corrige falhas da anterior (ARC-AGI-1), que podia ser "vencida" com força bruta computacional. Agora, o desafio também mede a eficiência cognitiva, ou seja, quão bem a IA resolve algo novo sem depender de exageros de processamento.
A criação do ARC-AGI-2 vem em um momento em que o setor de IA clama por métricas mais realistas sobre o que significa “inteligência” em máquinas. Enquanto o OpenAI o3 foi o único a superar o ARC-AGI-1, seu desempenho no ARC-AGI-2 foi de apenas 4%, mesmo consumindo US$ 200 por tarefa em computação. O novo desafio da fundação oferece um prêmio para quem conseguir 85% de acerto gastando no máximo US$ 0,42 por tarefa.
Conteúdos extras para você
ℹ️ Como a IA pode influenciar na contratação de profissionais? | Acesse o conteúdo completo.
🧠 Por dentro do inovador programa de segurança alimentado por IA da Volvo | Acesse o conteúdo completo.
🧠 Microsoft revela novos agentes de IA para segurança empresarial | Acesse o conteúdo completo.
ℹ️ Como a LetzAI capacitou a criatividade com infraestrutura de IA escalável e de alto desempenho | Acesse o conteúdo completo.
📄 Surpresa do Midjourney: nova pesquisa sobre como fazer LLMs escreverem de forma mais criativa | Acesse o conteúdo completo.
📄 DeepSeek reduz lacuna entre China e EUA em IA para três meses | Acesse o conteúdo completo.
📄 Uma bolha de IA ameaça o Vale do Silício | Acesse o conteúdo completo.
📄 Os falsos confortos do otimismo da IA | Acesse o conteúdo completo.
Isso é tudo por hoje!
Me conta: o que você achou do conteúdo de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Não perca nada!
Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!
Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.
Reply