- NoFinn
- Posts
- Brasil em Destaque: IA pode melhorar o PIB do Brasil até 2035 🇧🇷
Brasil em Destaque: IA pode melhorar o PIB do Brasil até 2035 🇧🇷
E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.
E aqui está a sua dose de hoje 👇
🏃TLDR⌚
🇧🇷 Brasil em Destaque: IA pode adicionar 13 pontos percentuais ao PIB do Brasil até 2035, se houver estratégia e confiança. Estudo da PwC projeta ganho expressivo com IA, mas alerta que impacto depende de integração ética e acelerada…
🌏 OpenAI lança política de residência de dados na Ásia para conquistar grandes empresas. Clientes no Japão, Índia, Singapura e Coreia do Sul agora podem armazenar dados localmente. A medida fortalece o posicionamento da OpenAI em compliance, segurança e soberania digital…
🌐 Anthropic lança Claude Web Search API, IA que busca, lê, compara e cita fontes em tempo real. Claude agora navega na web por conta própria para responder com precisão e transparência. É uma aposta clara na era pós-Google: respostas verificadas em vez de links…
🤖 Microsoft anuncia o protocolo A2A: interoperabilidade entre agentes de IA agora é oficial. O Agent2Agent permite que diferentes agentes colaborem entre si com segurança, mesmo em plataformas distintas. A Microsoft aposta numa IA distribuída, colaborativa e corporativa…
🤪 Hugging Face revela que modelos populares alucinam com solicitações de respostas curtas. O estudo PHARE mostra que instruções como “seja conciso” e perguntas formuladas com certeza aumentam a taxa de alucinação. Modelos que agradam mais, nem sempre informam melhor…
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão algumas das ferramentas que separei hoje pra você:
Gemini 2.5 Pro - Novo modelo do Google repleto de recursos de codificação.
Nelly - Crie, use e compartilhe agentes de IA que podem lidar com tarefas simples e fluxos de trabalho complexos. Sem necessidade de codificação.
Meta Perception Encoder - Um vision encoder que estabelece novos padrões em tarefas de imagem e vídeo.
Promptify - O Promptify é o seu companheiro de IA, acessível a partir de qualquer aplicativo ou site. Ele foi projetado para manter você no fluxo enquanto ajuda você a escrever, resumir, fazer brainstorming e codificar.
Brasil em destaque: IA pode melhorar o PIB do Brasil em até 13 pontos percentuais até 2035
Um novo relatório da PwC, uma startup focada em construir uma rede voltada para a tecnologia e capacitada pelas pessoas, projeta que a adoção massiva de IA pode adicionar até 13 pontos percentuais ao PIB brasileiro até 2035, caso o país consiga implementar a tecnologia de forma responsável, confiável e coordenada. Globalmente, o impacto pode chegar a 15 pontos. O estudo, Value in Motion, alerta que os ganhos não estão garantidos: dependem de fatores como governança ética, confiança social e estratégias de negócio que conectem diferentes setores e atendam às transformações nas necessidades humanas.
O documento estima que US$ 130 bilhões podem mudar de mãos no Brasil já em 2025, à medida que empresas mais adaptadas à IA substituírem players tradicionais. Entre os setores em maior reconfiguração estão saúde, mobilidade, energia e finanças. O relatório também introduz o conceito de “domínios econômicos”: zonas híbridas entre setores, como o da mobilidade, onde elétricos, energia e TI convergem. Nesse cenário, a vantagem competitiva virá de organizações que souberem criar valor além das fronteiras clássicas da indústria.
Há também um alerta ambiental: a IA tende a ampliar o consumo energético dos data centers, mas pode ser neutra se for usada para impulsionar eficiência energética. Em cenários negativos, o ganho do PIB cairia para 1 ponto ou menos. A PwC defende o uso de ferramentas como o Agente OS e programas internos de capacitação como formas de preparar empresas para essa transformação. O Brasil, que completa 110 anos de PwC em 2025, é visto como um mercado com grande potencial, mas que precisa agir rápido para não perder o bonde da próxima revolução industrial.
Microsoft anuncia A2A: IA distribuída, segura e conectada

A Microsoft anunciou o suporte oficial ao protocolo aberto Agent2Agent (A2A), que permitirá que agentes de IA interajam entre si de forma padronizada, segura e interoperável, mesmo operando em nuvens, plataformas e empresas diferentes. A ideia central é simples e poderosa: permitir que sistemas de agentes (como copilotos internos, bots corporativos e fluxos automatizados) comuniquem objetivos, troquem estado, invoquem ações e retornem resultados, sem depender de um único fornecedor. O A2A será integrado ao Azure AI Foundry e ao Copilot Studio, e tem como ambição criar um ecossistema aberto e colaborativo de IA corporativa.
Na prática, o A2A marca um avanço importante rumo à computação agentic, onde aplicações deixam de ser centralizadas e passam a funcionar como sistemas compostos por múltiplos agentes coordenados. Com suporte a ferramentas como LangChain, Semantic Kernel e autenticação via Microsoft Entra, o protocolo garante segurança, rastreabilidade e escalabilidade, atendendo aos requisitos de compliance de grandes empresas. Já são mais de 230 mil organizações usando Copilot Studio, e 10 mil adotando a infraestrutura de agentes da Microsoft, sinal de que o mercado quer interoperabilidade real, sem bloqueios.
A Microsoft reforça que essa iniciativa se soma a outras contribuições abertas como o Model Context Protocol (MCP), o Autogen e seu catálogo de modelos públicos. A2A não é só uma questão técnica, é parte de uma visão: a inteligência do futuro não será monolítica, mas composta, distribuída e adaptável, refletindo a complexidade do mundo real. A public preview do protocolo será lançada em breve, junto a exemplos práticos como agentes colaborando em tarefas como planejamento de viagens e conversão de moedas, sem necessidade de código personalizado de orquestração.
Anthropic lança API de busca na web para o Claude

A Anthropic acaba de lançar a Claude Web Search API, uma funcionalidade que permite ao Claude acessar a web em tempo real para complementar suas respostas com informações atualizadas, verificadas e com fonte citada. O recurso pode ser ativado em qualquer chamada à Messages API, permitindo que agentes e apps baseados em Claude façam buscas direcionadas, refinem consultas com múltiplas iterações e entreguem respostas com qualidade de pesquisa leve, tudo de forma automatizada. A API já está disponível para os modelos Claude 3.7 Sonnet, 3.5 Sonnet e 3.5 Haiku, com custo de US$ 10 por 1.000 buscas mais os tokens padrão.
Entre os principais casos de uso, a Anthropic destaca aplicações em finanças (preços e tendências de mercado em tempo real), jurídico (acesso a decisões recentes e regulações), dev tools (documentações e versões de APIs) e inteligência competitiva (relatórios, novidades e benchmarks da indústria). O sistema também permite configurar listas de domínios permitidos ou bloqueados, dando controle total sobre as fontes acessadas, algo essencial para empresas com políticas de segurança da informação ou compliance regulatório. As buscas são feitas apenas quando o modelo avalia que elas trarão ganho real de qualidade à resposta.
Mais do que um “modo pesquisa”, a Web Search API representa a entrada oficial da Anthropic na disputa pelo pós-Google: um cenário onde usuários e empresas buscam não só respostas, mas agentes que navegam, cruzam e analisam conteúdo da web por conta própria. Startups como Poe e Adaptive.ai já começaram a integrar o recurso em suas plataformas, citando vantagens em custo, profundidade e precisão. A pergunta agora não é mais “quem responde melhor”, mas quem navega melhor, e transforma dados em ação com mais contexto.
OpenAI anuncia a residência de dados na Ásia, incluindo Japão, Índia, Cingapura e Coreia do Sul para ChatGPT Enterprise, ChatGPT Edu e API Platform
![]() |
A medida permite que as organizações nesses países armazenem dados localmente, garantindo conformidade com leis de soberania digital e reforçando o compromisso da empresa com segurança, privacidade e transparência, elementos cada vez mais exigidos em ambientes corporativos e acadêmicos.
A novidade permite que conversas, prompts, arquivos enviados e conteúdos gerados em texto, imagem ou visão fiquem armazenados “em repouso” dentro da jurisdição regional escolhida. No caso da API, basta selecionar o país ao criar um novo projeto. A OpenAI destaca que os dados não são usados para treinar modelos (a menos que o cliente opte por isso), e que a empresa adota criptografia AES‑256 e TLS 1.2+, além de aderência a padrões como GDPR, CCPA, SOC 2 Type 2 e CSA STAR.
Com essa expansão, a OpenAI se posiciona como fornecedora de IA “compliant-ready” para mercados asiáticos de alto valor estratégico, reforçando parcerias com empresas como Kakao, Grab, SoftBank e Singapore Airlines. A mensagem é clara: a IA corporativa do futuro não é só potente, ela é local, segura e regulada. A capacidade de controlar onde os dados residem se tornou diferencial competitivo em um mundo onde privacidade, regulação e confiança são tão relevantes quanto performance de modelo.
Mais notícias ao redor do mercado de IAs
OpenAI expande liderança com CEO da Instacart, Fidji Simo, assumindo o papel de CEO de Aplicativos.
Resposta da OpenAI ao Departamento de Energia sobre infraestrutura de IA.
Stripe revela modelo de base de IA para pagamentos e revela 'parceria mais profunda' com a Nvidia.
Pequim sediará os primeiros jogos esportivos de robôs humanóides do mundo.
A Apple está procurando adicionar mecanismos de busca de IA ao Safari.
Fastino, startup que treina modelos de IA em GPUs gamers acessíveis, acaba de levantar US$ 17,5 milhões liderados pela Khosla Ventures.
Google lança ferramentas de IA para proteger usuários do Chrome contra golpes.
A estratégia de IA da Samsung gera receita recorde apesar dos ventos contrários dos semicondutores.
Estudo afirma que solicitar respostas curtas a chatbots pode aumentar as alucinações

O estudo PHARE (Potential Harm Assessment & Risk Evaluation), desenvolvido pela Hugging Face em parceria com a Giskard, Google DeepMind e União Europeia, revela um dado preocupante: os LLMs mais populares tendem a alucinar com confiança, e isso piora conforme tentam agradar os usuários. Avaliando modelos de oito laboratórios em tarefas como precisão factual, resistência à desinformação, capacidade de refutar pseudociência e confiabilidade com ferramentas externas, o estudo mostrou que o desempenho real em evitar falsidades está desconectado dos rankings de popularidade como o LMArena.
Três achados chamam atenção. Primeiro, a forma como a pergunta é feita impacta diretamente a propensão do modelo a inventar: quando uma afirmação falsa é apresentada com convicção (“Tenho certeza de que...”), os modelos reduzem sua resistência a até 15%. Isso mostra um efeito de “sintonia servil” (sycophancy), herdado de treinamentos por RLHF, modelos aprendem a soar úteis, mesmo que isso signifique concordar com inverdades. Segundo, instruções de sistema como “seja conciso” aumentam significativamente a taxa de alucinação, pois reduzem o espaço para explicações e refutações mais elaboradas. Em alguns casos, o desempenho caiu 20%.
Por fim, o estudo sugere que há formas reais de mitigar esses problemas: alguns modelos, como os da Anthropic e da Meta (LLaMA), demonstraram maior resistência à servilidade e à concisão forçada. Mas o alerta é claro: se priorizarmos conveniência, resposta curta e “boa aparência”, corremos o risco de construir LLMs agradáveis, mas perigosamente imprecisos. A próxima fase do PHARE trará dados sobre viés, danos e vulnerabilidades, uma tentativa de trazer mais rigor técnico e ético ao hype dos modelos generativos.
Conteúdos extras para você
ℹ️ OpenAI e FDA estão conversando sobre o uso de IA na avaliação de medicamentos | Acesse o conteúdo completo.
ℹ️ a16z: Nove padrões de desenvolvedores emergentes para a era da IA | Acesse o conteúdo completo.
🧠 Modelo de IA usa dados de pessoas na Inglaterra para prever doenças e complicações futuras | Acesse o conteúdo completo.
🧠 MIT: Sistema permite que os robôs identifiquem as propriedades de um objeto por meio do manuseio | Acesse o conteúdo completo.
ℹ️ Brasil: Câmara vai dar novo enfoque a projeto de IA do Senado | Acesse o conteúdo completo.
🧠 O uso de tecnologias baseadas em deep learning e IA na arte-educação | Acesse o conteúdo completo.
ℹ️ Pesquisadores de IA dos EUA, Europa e Ásia se reuniram em Cingapura para formar um plano para pesquisar os riscos da IA | Acesse o conteúdo completo.
ℹ️ Apenas 44% dos CIOs são considerados especialistas em IA pelos CEOs, diz Gartner | Acesse o conteúdo completo.
🧠 Centro de Dados de IA Renovável e Sustentável do Start Campus | Acesse o conteúdo completo.
ℹ️ A IA generativa corre o risco de criar uma nova disparidade de gênero no trabalho | Acesse o conteúdo completo.
ℹ️ Por que as próximas rodadas de financiamento pode depender de uma colaboração bem gerenciada entre IA humana e agente | Acesse o conteúdo completo.
Isso é tudo por hoje!
Me conta: o que você achou do conteúdo de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Não perca nada!
Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!
Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.
Reply