- NoFinn
- Posts
- Anthropic traz Claude para uso no governo dos EUA 🤖 🇺🇸
Anthropic traz Claude para uso no governo dos EUA 🤖 🇺🇸
Google fala que Gemini 2.5 Pro é melhor com codificação, Amazon cria equipe focada em pesquisas de agentes de IA& mais
E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.
E aqui está a sua dose de hoje 👇
🏃TLDR⌚
🤖 A Anthropic lançou os modelos Claude Gov, versões personalizadas da sua família Claude de IA generativa, voltadas exclusivamente para clientes do governo dos EUA em áreas de defesa e segurança nacional. Desenvolvidos dentro de um ambiente seguro e compatível com as exigências do governo federal, esses modelos prometem suporte robusto para tarefas críticas, com maior controle, segurança e auditabilidade. A empresa afirma que os modelos mantêm o desempenho dos modelos comerciais, mas com ajustes de segurança e conformidade. Eles já estão sendo testados por agências federais, com promessa de expandir sua integração nos próximos meses…
💻 O Google anunciou uma atualização significativa do modelo Gemini 2.5 Pro, agora mais eficiente e preciso em tarefas de programação e raciocínio lógico. A nova versão, disponível em prévia para desenvolvedores no Google AI Studio, mostrou melhorias notáveis em benchmarks como HumanEval e Natural2Code, rivalizando com modelos como GPT-4 e Claude Opus em certas tarefas. A atualização foca em desempenho consistente e reduzida alucinação, visando tornar o Gemini uma ferramenta mais confiável para casos de uso técnicos e empresariais…
👀 A Amazon formou uma nova divisão de P&D dedicada a IA agentiva e robótica, sinalizando sua aposta no futuro das IAs autônomas e colaborativas. A iniciativa será liderada por Rohit Prasad, ex-chefe da Alexa, e buscará unir robótica, IA generativa e interfaces multimodais para desenvolver agentes que executem tarefas complexas no mundo físico e digital. A ideia é alinhar com tendências de mercado que apontam para uma próxima geração de interfaces homem-máquina altamente autônomas…
🧠 Um estudo conjunto entre Meta, Google, Nvidia e Cornell revelou que modelos de linguagem de grande porte memorizam milhares de trechos de seus dados de treinamento, levantando preocupações sobre privacidade, segurança e direitos autorais. Com uma nova métrica chamada Minimum Snippet Length (MSL), os pesquisadores conseguiram quantificar e rastrear a memorização literal de sequências por modelos como Mistral, LLaMA e GPT-2. O trabalho propõe diretrizes para duplicação e testes de memória nos modelos, especialmente importantes à medida que as IAs entram em ambientes regulados…
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão algumas das ferramentas que separei hoje pra você:
Mistral Code - Assistente de codificação de IA empresarial com modelos como Codestral e Devstral, além de possuir integração com IDE.
Dule for Google Calendar - Um assistente de agendamento de IA baseado em e-mails. Insira [email protected] nos seus e-mails, então ele irá combinar o melhor horário para uma reunião e marcar reuniões no calendário com base no seu horário de trabalho e disponibilidade.
InterTabs - Extensão de gerenciamento de guias do navegador com IA.
Zetta - Plataforma de análise de dados com IA conversacional, insights automatizados, dashboards e um data warehouse.
Den - Den é um Slack/Notion reformulado para agentes de IA. Ele oferece um único lugar para todos os seus chats, documentos e agentes.
Anthropic entra no front da segurança nacional dos EUA e apresenta o modelo Claude Gov

A Anthropic lançou oficialmente a linha Claude-Gov, uma família de modelos de IA voltada exclusivamente para clientes do setor de defesa, inteligência e segurança nacional dos Estados Unidos. Desenvolvidos em conformidade com os requisitos do governo norte-americano, esses modelos prometem manter os altos padrões de segurança, controle e rastreabilidade exigidos por aplicações sensíveis. A Claude-Gov está integrada ao programa GovCloud da AWS e será operada em ambientes isolados para proteger dados confidenciais, com suporte a tarefas como análise de inteligência, triagem de dados estratégicos e automação de operações críticas.
Segundo a empresa, esses modelos personalizados foram treinados com foco em alinhamento ético, transparência e robustez contra alucinações, além de incorporar mecanismos que permitem rastrear decisões e limitar respostas de risco. A Anthropic posiciona a iniciativa como um contraponto aos modelos comerciais, oferecendo maior governança e adaptabilidade às missões específicas das agências federais. A iniciativa também marca um passo importante na corrida entre big techs para fornecer soluções seguras e confiáveis ao governo dos EUA, aproximando IA de uso civil e militar com níveis inéditos de controle e especialização.
Google informa que Gemini 2.5 Pro atualizado é melhor em codificação

O Google anunciou uma nova atualização do modelo Gemini 2.5 Pro, agora disponível como prévia para usuários do Gemini Advanced, com promessas de melhorias substanciais em raciocínio, codificação e interações multimodais. A empresa afirma que o novo modelo já superou o GPT-4 Turbo em benchmarks internos de programação, com destaque para tarefas como depuração, explicações de código e geração de snippets complexos. O Gemini 2.5 Pro também apresenta melhorias significativas em latência, compreensão de contexto e uso de ferramentas, além de oferecer suporte expandido para contextos longos, alcançando até 1 milhão de tokens em alguns testes laboratoriais.
Outro diferencial da atualização é o foco em integração prática com fluxos de trabalho profissionais, especialmente nas áreas de engenharia de software e produtividade. Segundo o Google, o modelo agora responde com mais precisão a comandos ambíguos, entende melhor o histórico de interação e oferece maior controle ao usuário por meio de funções como "revisar código passo a passo". A evolução do Gemini Pro 2.5 sinaliza o esforço da empresa em acelerar seu ciclo de lançamentos e se posicionar com mais força no mercado enterprise de IA, mantendo o ritmo frente à OpenAI e outras concorrentes em um cenário cada vez mais competitivo.
Nova divisão da Amazon foca em IA agêntica
![]() |
O objetivo do grupo é explorar e desenvolver agentes de IA que possam operar com maior autonomia e proatividade em ambientes reais, tomando decisões de forma contínua e interagindo com múltiplas ferramentas, sensores e plataformas. Segundo a Amazon, esses agentes serão projetados para realizar tarefas complexas e adaptativas, como planejamento, raciocínio em tempo real e execução de múltiplas etapas sem necessidade de comandos humanos diretos.
O novo grupo reunirá especialistas em machine learning, robótica, sistemas embarcados e simulações, buscando criar uma nova geração de assistentes capazes de operar tanto em ambientes domésticos quanto corporativos. A iniciativa reflete uma guinada estratégica da Amazon em direção à próxima era da computação interativa, onde agentes autônomos não apenas executam comandos, mas antecipam necessidades e colaboram com humanos e outros sistemas. A empresa também sinalizou que a nova unidade terá liberdade para testar novos modelos e arquiteturas, além de integrar seus avanços com a infraestrutura da AWS e o ecossistema Alexa, posicionando-se na vanguarda da corrida global por agentes inteligentes de uso generalizado.
🇧🇷 Novidade do setor para o Brasil 🇧🇷
Incentivo fiscal para projeto de IA do Ministério Público do Amazonas é aprovado.
Brasil está "refém" das redes e precisa regulamentar IA, diz presidente do Senado.
Brasil e Chile lideram a nova fronteira da IA na América Latina.
Positivo Servers & Solutions transforma data centers no Brasil com soluções de inteligência artificial em parceria com a NVIDIA.
Mais notícias ao redor do mercado de IAs
EUA removem 'segurança' do AI Safety Institute.
Amazon planeja investir US$ 10 bilhões na Carolina do Norte para expandir a infraestrutura de computação em nuvem e promover a inovação em IA.
O CEO da Alphabet, Sundar Pichai, descarta temores sobre empregos em IA e enfatiza planos de expansão.
Os agentes de voz de IA da Toma decolaram em concessionárias de automóveis e atraíram financiamento da a16z.
X altera seus termos para proibir o treinamento de modelos de IA usando seu conteúdo.
Perplexity recebeu 780 milhões de consultas no mês passado, diz CEO.
A Amazon está supostamente treinando robôs humanoides para entregar pacotes.
Anysphere da Cursor alcança avaliação de US$ 9,9 bilhões e ultrapassa US$ 500 milhões em receita anual.
Quanta informação os LLMs realmente memorizam?

Pesquisadores da Meta, Google DeepMind, Nvidia e Cornell publicaram um estudo abrangente que revela o quanto modelos de linguagem realmente memorizam informações durante o treinamento. Usando uma nova métrica chamada “mínimo tamanho de snippet memorizado” (Minimum Snippet Length ou MSL), o estudo conseguiu medir de forma precisa quantas sequências exatas de dados os LLMs são capazes de lembrar. A pesquisa demonstrou que mesmo os modelos mais avançados podem memorizar blocos consideráveis de texto literal, levantando preocupações com privacidade, segurança e direitos autorais, especialmente quando esses dados são usados inadvertidamente em respostas geradas para os usuários.
O estudo mostrou que modelos como LLaMA, Mistral e GPT-2 memorizaram milhares de trechos de treinamento, alguns com até 50 tokens, que podem ser reproduzidos textualmente durante a inferência. Para exemplificar, um modelo Mistral-7B treinado com dados do The Pile exibiu 5.000 ocorrências de memorização. Os autores também investigaram o impacto de variáveis como o tamanho do modelo, o número de parâmetros e o método de treinamento (ex: código aberto vs fechado), observando que todos influenciam significativamente a propensão à memorização. Modelos maiores e mais densos tendem a memorizar mais, especialmente quando expostos a conteúdos altamente repetitivos ou com estrutura previsível.
Os resultados sugerem que, embora os LLMs aprendam padrões estatísticos e não simplesmente "decorem" tudo, a linha entre aprendizado e memorização ainda é tênue, e representa um risco concreto em termos de compliance e responsabilidade. A recomendação dos autores é que desenvolvedores adotem medidas como deduplicação mais rígida nos datasets e monitoração ativa do comportamento de memória dos modelos. Além disso, novas práticas de auditoria e testes automatizados devem ser incluídas no ciclo de desenvolvimento, para evitar que LLMs reproduzam inadvertidamente dados sensíveis, protegidos por copyright ou pessoais. O estudo se torna ainda mais relevante à medida que o uso de IA generativa cresce em setores regulados como jurídico, financeiro e médico.
Conteúdos extras para você
📄 Abraçando a Inteligência Artificial: Uma Jornada Transformadora para a América Latina | Acesse o conteúdo completo.
📄 Inteligência artificial é mais propensa a assumir tarefas do que empregos: Instituto de Pesquisa em Políticas Públicas | Acesse o conteúdo completo.
🧠 Revelando vulnerabilidades do agente de IA Parte V: Protegendo os serviços LLM | Acesse o conteúdo completo.
ℹ️ Uma revisão 360º dos benchmarks de agentes de IA | Acesse o conteúdo completo.
🧠 Os avanços da IA estão trazendo esperança para a pesquisa e o tratamento do câncer | Acesse o conteúdo completo.
📄 Como a Treefera está usando IA para eliminar riscos na cadeia de suprimentos | Acesse o conteúdo completo.
🧠 Novo sistema permite que robôs resolvam problemas de manipulação em segundos | Acesse o conteúdo completo.
ℹ️ A CEO da Runway, Cris Valenzuela, quer que Hollywood adote o vídeo de IA | Acesse o conteúdo completo.
🧠 Pare de tentar adivinhar por que seus LLMs quebram: a nova ferramenta da Anthropic mostra exatamente o que está errado | Acesse o conteúdo completo.
Isso é tudo por hoje!
Me conta: o que você achou do conteúdo de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Não perca nada!
Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!
Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.
Reply