- NoFinn
- Posts
- Alibaba ensina sua IA a pesquisar sozinha 🔎
Alibaba ensina sua IA a pesquisar sozinha 🔎
OpenAI conecta Deep Research com o GitHub, Nvidia modifica chip H20 para fugir das sanções & mais
E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.
⚠️ Tenho uma aviso muito importante para você hoje ⚠️
Estou organizando algumas mudanças no conteúdo da news e o primeiro deles é o horário em que as notícias irão chegar na sua caixa de entrada.
Hoje é o último dia que estarei te enviando mensagens próximo das 17h… A partir de segunda-feira, os conteúdos da Nofinn, serão enviados às 09h da manhã!
As outras mudanças que mencionei em breve você ficará sabendo, sem spoilers!
Fique atento!
E agora vamos para o conteúdo desta sexta-feira! 👇
🏃TLDR⌚
🔎 Alibaba cria o ZeroSearch: IA que “dá um Google” sozinha e corta 88% do custo de treino. A nova técnica usa buscas simuladas por LLMs em vez de APIs externas. Resultados batem de frente com o Google Search com menos GPU…
🤖OpenAI integra GitHub ao ChatGPT Deep Research e mira desenvolvedores técnicos. Usuários agora podem fazer perguntas sobre código real com base em repositórios. O recurso expande o papel da IA como copiloto de engenharia…
⚙️ Nvidia ajusta chip H20 para contornar sanções e manter mercado chinês de US$ 17 bi. A nova versão com memória e performance reduzidas deve ser lançada em julho para clientes como Alibaba e Tencent. É uma engenharia sob medida para escapar do bloqueio dos EUA…
📈 Só 8% das empresas escalaram IA com impacto real. Segundo a Accenture, talento, foco, infraestrutura e agentes autônomos são os pilares. A maioria ainda testa sem sair do lugar, enquanto os líderes colhem +13% em produtividade e +12% em receita...
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão algumas das ferramentas que separei hoje pra você:
Flow - Conversão de fala em texto em todos os aplicativos do seu computador.
Antispace - Ferramenta que atua como um Sistema Operacioanal com funções de IA.
HyperArc - Plataforma de BI nativa de IA que aprende com o uso da sua equipe. Faça perguntas de forma simples e obtenha insights inteligentes.
Alpaca Chat - Crie agentes de IA com ferramentas e converse com outros LLMs agentes da sua equipe. Além disso, oferece espaços de trabalho em equipe e faturamento centralizado para empresas otimizarem as tarefas de IA.
ZeroSearch: Alibaba ensina IA a pesquisar sozinha e corta 88% do custo de treinamentos

A Alibaba apresentou o ZeroSearch, uma arquitetura de treinamento para LLMs que elimina a necessidade de chamadas para motores de busca reais, como o Google Search, durante o processo de aprendizado. A proposta é ambiciosa e altamente eficiente: simular buscas internamente com o próprio modelo, gerando documentos relevantes e irrelevantes em fases controladas por reforço com currículo (curriculum-based RL). Isso permite desenvolver capacidades autônomas de recuperação de informação, sem custo por consulta e sem depender de APIs externas.
Os resultados são expressivos. Em benchmarks de QA (Pergunta & Resposta), módulos de 7B de parâmetros empataram com o Google Search, enquanto versões de 14B superaram o motor de busca comercial, a um custo 88% menor. Enquanto 64 mil buscas via SerpAPI custariam cerca de US$ 586, a simulação com LLM sai por US$ 70,80, usando apenas quatro GPUs A100. A abordagem foi testada com modelos como Qwen 2.5 e LLaMA 3.2, mostrando ampla aplicabilidade.
Mais do que reduzir custos, o ZeroSearch oferece controle total sobre o conteúdo exposto durante o treinamento, eliminando a variabilidade dos documentos retornados por motores de busca. Isso não só democratiza o acesso ao desenvolvimento de IA avançada (ao remover barreiras financeiras), como aponta para um futuro onde LLMs treinam com suas próprias “buscas internas”, em vez de depender de Big Techs. Com código aberto e datasets publicados no Hugging Face e GitHub, o ZeroSearch pode redefinir as bases do treinamento de IA nos próximos anos.
O Deep Research, do ChatGPT, agora tem um conector GitHub para responder a perguntas sobre código

A OpenAI lançou o primeiro conector oficial para sua ferramenta ChatGPT Deep Research, integrando agora repositórios do GitHub à interface de análise profunda. A funcionalidade permite que usuários do ChatGPT Plus, Pro e Team (Enterprise e Edu em breve) façam perguntas diretamente sobre bases de código e documentação técnica, além de quebrar especificações de produto em tarefas, identificar dependências e sugerir implementações com exemplos reais. O objetivo: transformar a IA em uma ponte contextual entre engenharia, produto e documentação, direto no fluxo de trabalho.
Ao contrário de plugins anteriores, esse conector se integra nativamente à ferramenta de pesquisa profunda da OpenAI, que já vasculha web, PDFs e outras fontes. Agora, ele também atua como intérprete técnico para código em escala, ajudando devs a entender estruturas, padrões e APIs de maneira prática. A OpenAI garante que os acessos respeitarão permissões organizacionais e visibilidade limitada a repositórios compartilhados com o usuário. Apesar do risco de alucinações, o modelo foi desenhado para acelerar leitura, onboarding e debugging, e não para substituir especialistas humanos.
O lançamento acompanha uma série de investimentos da OpenAI no ecossistema de dev tools, incluindo o Codex CLI, integração com apps de desenvolvimento nativos e a recente aquisição da Windsurf (Codeium) por US$ 3 bilhões. A mensagem é clara: a OpenAI quer que ChatGPT deixe de ser apenas um assistente geral e se torne uma ferramenta real de produtividade técnica, com papel direto na construção de software, e não só em brainstorms ou explicações genéricas.
Nvidia modifica chip H20 para China superar controles de exportação dos EUA
![]() | A Nvidia está adaptando seu chip de IA H20 para lançar uma versão com especificações reduzidas exclusivamente para o mercado chinês, em resposta às novas restrições de exportação dos EUA. A empresa informou a clientes como Alibaba, Tencent e ByteDance que o novo modelo deve chegar em julho de 2025. Embora o chip original estivesse entre os mais potentes autorizados para venda na China, ele acabou barrado após Washington exigir uma licença de exportação, o que levou a Nvidia a reformular sua estratégia para preservar participação em um mercado que representa 13% de sua receita global (US$ 17 bilhões). |
A versão modificada do H20 terá memória e performance reduzidas, mas pode ainda ser ajustada por integradores downstream, de acordo com as necessidades locais. O movimento é parte de uma ofensiva mais ampla dos EUA para impedir o uso militar avançado de chips por parte da China, o que já levou à suspensão de vários modelos desde 2022. Ainda assim, a Nvidia acumulou US$ 18 bilhões em pedidos do H20 antes do bloqueio, o que mostra a demanda reprimida por poder computacional de IA no país.
Além de adaptar seus produtos, o CEO Jensen Huang visitou Pequim recentemente, sinalizando o compromisso da empresa com o mercado chinês mesmo sob pressão geopolítica. O caso mostra como a IA se tornou não apenas um vetor tecnológico, mas também um ativo estratégico e diplomático, com empresas redesenhando produtos para equilibrar lucro, regulação e risco geopolítico. A questão agora é até onde a Nvidia (e outras) poderão ir sem comprometer o alinhamento com políticas de segurança nacional dos EUA.
🇧🇷 Novidade do setor para o Brasil 🇧🇷
Explosão da IA no Brasil: estudo mostra que número de empresas na área cresce 857% em dois anos.
Brasil e China na corrida pela inteligência artificial.
Primeira inteligência artificial de RH via WhatsApp é lançada no Brasil para ajudar microempresas.
Brasil apresenta avanços em desenvolvimento humano e nas estratégias de IA no lançamento de relatório do PNUD.
Apoio à decisão clínica, melhor experiência do paciente e inteligência artificial despontam como tendências na saúde.
Mais notícias ao redor do mercado de IAs
Amazon está trabalhando em uma ferramenta de geração de código de IA.
Google lança 'cache implícito' tornando o acesso aos seus modelos de IA mais recentes mais barato.
Meta nomeia ex-diretor do Google DeepMind para liderar seu laboratório de pesquisa de IA.
Funcionários da Microsoft estão proibidos de usar o aplicativo DeepSeek, segundo seu presidente.
SoundCloud muda políticas para permitir treinamento de IA no conteúdo do usuário
Mistral apresenta Le Chat Enterprise, um assistente de IA para empresas.
A memória escalável do Mem0 promete agentes de IA mais confiáveis que lembram o contexto em conversas longas.
5 estratégias que separam os líderes de IA dos 92% ainda no modo de uso básico

Apesar do avanço das ferramentas de inteligência artificial e da corrida por transformação digital, a grande maioria das empresas ainda não colheu resultados concretos. Segundo o novo relatório da Accenture, baseado em entrevistas com mais de 2.000 executivos de empresas bilionárias ao redor do mundo, apenas 8% conseguiram escalar múltiplas iniciativas estratégicas de IA com sucesso. Os outros 92% continuam presos na “fase piloto”, onde a IA permanece como experimento isolado ou prova de conceito sem impacto sustentável. A pergunta que o relatório responde é simples: o que esses 8% estão fazendo de diferente?
O primeiro diferencial é maturidade em talento, não orçamento. Empresas líderes têm quatro vezes mais maturidade em estratégias de capacitação e cultura digital. Isso inclui programas estruturados de treinamento, centros de excelência em IA (usados por 57% dos líderes, contra apenas 16% dos seguidores) e forte ênfase em adaptação cultural, não apenas técnica. O erro comum, segundo o estudo, é acreditar que comprar ferramentas resolve. Na prática, sem gente capacitada para interpretar, ajustar e governar a IA, o ROI evapora.
O segundo grande pilar é a infraestrutura de dados. A maioria das empresas não está tecnicamente preparada para escalar IA porque não construiu as bases certas: dados limpos, estruturados, acessíveis e conectados. Os líderes, por outro lado, já dominam técnicas como RAG (retrieval-augmented generation) e grafos de conhecimento, e integram dados de múltiplas origens (zero, second, third-party e sintéticos). Enquanto 97% dos líderes criaram pelo menos três capacidades novas para IA generativa, só 5% dos seguidores fizeram o mesmo. A conclusão é direta: IA sem dado é só PowerPoint.
A terceira estratégia é apostar em poucos projetos transformadores com impacto direto no core da empresa, em vez de tentar aplicar IA “por todo lado”. Essas “apostas estratégicas”, como o estudo chama, são grandes investimentos em áreas que realmente movem a agulha, supply chain, relacionamento com clientes, produtos-chave. Empresas que fizeram isso têm três vezes mais chance de superar o ROI previsto com IA.
A quarta lição do relatório é transformar a IA responsável em vantagem competitiva real, e não só um checklist de compliance. Empresas maduras não só mitigam riscos, mas usam governança, transparência e explicabilidade como elementos de confiança para clientes e parceiros, além de atrair talentos preocupados com ética e impacto social. Nesse cenário, a IA responsável vira parte do design de produto e da estratégia, e não só da auditoria.
Por fim, as líderes já começam a operar com arquiteturas agentic: redes de agentes de IA que interagem entre si, tomam decisões autônomas e orquestram fluxos completos, como onboarding de cliente, operações financeiras ou suporte técnico. Isso marca uma mudança radical: sai a IA como “ferramenta”, entra a IA como “colaborador autônomo”. Esses sistemas, ainda emergentes, já estão presentes em 65% dos líderes entrevistados, e representam a base do que pode ser a próxima geração de software empresarial dinâmico, adaptável e distribuído.
Conteúdos extras para você
▶️ IA multimodal explicada: por que é o futuro da inteligência artificial | Acesse o conteúdo completo.
🧠 Protocolos de condicionamento cerebral com inteligência artificial: como a tecnologia está transformando o aprimoramento cognitivo | Acesse o conteúdo completo.
ℹ️ Centro Multidisciplinar de Computação Neuromórfica do Reino Unido | Acesse o conteúdo completo.
ℹ️ Robô humanóide de empresa norte-americana realizará tarefas de soldagem na construção naval da Coreia do Sul | Acesse o conteúdo completo.
🧠 Líderes de IA de Big Techs dos EUA se reúnem com o governo do país, em Washington, para discutir estratégias que mantenham o país na liderança da corrida pela IA | Acesse o conteúdo completo.
🎙️ Meta quer criar um mecanismo de IA autônomo para gerenciar campanhas de anúncios | Acesse o conteúdo completo.
🧠 Como o Hospital de Ottawa usa captura de voz ambiente por IA para reduzir o esgotamento dos médicos em 70% e atingir 97% de satisfação do paciente | Acesse o conteúdo completo.
🧠 A Microsoft quer que acreditemos que a IA irá quebrar a energia de fusão prática, impulsionando a IA futura | Acesse o conteúdo completo.
ℹ️ Política de chips de IA de Trump eliminará controles de exportação de Biden | Acesse o conteúdo completo.
🧠 Patente da DeepMind reduz tamanho de modelo sem comprometer eficiência: Modelos pequenos e energeticamente eficientes têm atraído cada vez mais atenção nos últimos meses | Acesse o conteúdo completo.
🧠 Por que os LLMs têm propriedades emergentes? | Acesse o conteúdo completo.
Isso é tudo por hoje!
Me conta: o que você achou do conteúdo de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Não perca nada!
Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!
Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.
Reply