• NoFinn
  • Posts
  • OpenAI libera GPT 4.1 🚀

OpenAI libera GPT 4.1 🚀

Claude alucina no tribunal, Tencent em ritmo acelerado de crescimento & mais

E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.

E aqui está a sua dose de hoje para fechar a semana 👇

🏃TLDR

🆕 OpenAI libera GPT-4.1 e 4.1 Mini para todos os usuários do ChatGPT. Com janela de 1 milhão de tokens e foco em produtividade, os novos modelos melhoram velocidade e capacidade de raciocínio básico. O 4.1 Mini vira padrão gratuito, enquanto empresas ganham ferramentas mais robustas sem precisar migrar para modelos reasoning como o o3…

🫣 Claude alucina e comete gafe jurídica, e Anthropic pede desculpas por citação falsa em tribunal. O modelo alucinou um artigo legal que foi parar num processo contra gravadoras, exigindo retratação pública da empresa. O caso reacende o alerta: IA generativa ainda não é confiável para ambientes que exigem precisão total, como o Judiciário…

📈 Tencent dribla bloqueio de chips e cresce 13% com IA própria e otimização computacional. A gigante chinesa afirma ter GPUs para “várias gerações” de modelos, e aposta em eficiência ao invés de escalar clusters. Enquanto desacelera o aluguel de GPU em nuvem, foca em chips alternativos e aplica IA para gerar valor direto, especialmente em anúncios e superapps…

🤖 Windsurf lança SWE-1, um modelo de IA voltado à engenharia de software completa. Mais do que apenas escrever código, o SWE-1 interage com terminal, testa, corrige erros e acompanha fluxos inacabados. Com versões lite e mini, a proposta é acelerar 99% do trabalho dev, integrando IA diretamente ao processo de engenharia, não apenas à IDE…

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão algumas das ferramentas que separei hoje pra você:

  • Gemini Advanced - Conecte o assistente avançado do Google aos repositórios do GitHub.

  • GPT 4.1 - Modelo de codificação avançado da OpenAI, agora disponível no ChatGPT.

  • CodeRabbit - Revisões de código AI diretamente no Cursor, Windsurf e VSCode.

  • BrowserAgent - Permite criar e executar fluxos de trabalho de IA diretamente em seu navegador.

  • Interlify - ferramenta que conecta o ChatGPT ou o Claude aos dados e serviços da sua empresa sem precisar escrever códigos complicados.

O modelo principal GPT-4.1 da OpenAI agora está disponível no ChatGPT

A OpenAI oficializou o lançamento do GPT-4.1 e do GPT-4.1 Mini no ChatGPT, ampliando o acesso a seus modelos mais recentes de linguagem multimodal. O GPT-4.1 já está disponível para usuários dos planos Plus, Pro e Team, enquanto o Mini se torna o novo modelo padrão até mesmo para usuários gratuitos, substituindo o antigo GPT-4o Mini. Para empresas (via plano Enterprise) e instituições educacionais, o acesso será liberado nas próximas semanas.

Ambos os modelos trazem ganhos significativos de desempenho e usabilidade, com destaque para a janela de contexto de 1 milhão de tokens, um salto massivo em relação aos 128 mil tokens do GPT-4o. Isso permite lidar com arquivos extensos, sessões de chat mais longas e múltiplos inputs multimodais. Segundo a OpenAI, o GPT-4.1 supera tanto o 4o quanto o 4o Mini em tarefas de programação, instrução e raciocínio básico, tornando-se ideal para workflows diários e desenvolvimento de software. E embora os modelos reasoning o3/o4-mini tenham mais capacidade bruta, o 4.1 ganha em velocidade e praticidade.

Além do upgrade técnico, o movimento consolida uma estratégia clara de segmentação da OpenAI: manter o 4.1 Mini como “modelo do dia a dia” (acessível e rápido), enquanto posiciona o 4.1 completo como “modelo premium” para quem precisa de mais profundidade e persistência. A versão Nano, ainda mais leve, foi lançada para desenvolvedores, mas não entrou nesse rollout, sugerindo que a OpenAI ainda calibra sua linha de produtos para uso em edge e dispositivos móveis. Para empresas, a principal vantagem está em fluxos de trabalho mais longos, custo-benefício e maior estabilidade na execução de tarefas complexas sem migrar para modelos reasoning especializados.

O advogado da Anthropic se desculpou após Claude alucinar com uma citação legal

Em mais um episódio da série "IA no tribunal", a Anthropic foi forçada a se retratar publicamente após seu chatbot Claude gerar citações jurídicas falsas usadas em um processo contra gravadoras como a Universal Music Group. A falha ocorreu durante a preparação do depoimento da funcionária Olivia Chen, considerada perita pela empresa. O erro envolvia um artigo inventado, com título e autores inexistentes e só foi descoberto após a juíza federal Susan van Keulen exigir esclarecimentos formais sobre o uso da IA. Segundo a Anthropic, foi um “erro honesto de citação” e não uma tentativa de manipular o tribunal.

A situação é emblemática de um risco crescente: a dependência ingênua de modelos generativos em ambientes que exigem precisão total, como o judiciário. O problema não é novo, outros casos recentes envolveram advogados nos EUA e na Austrália que também confiaram em ChatGPT ou similares, e acabaram apresentando “pesquisas jurídicas alucinadas”. Mesmo assim, startups como Harvey, voltada à automação de tarefas jurídicas com IA, estão captando centenas de milhões de dólares. A tecnologia avança, mas o bom senso parece ficar para trás.

O episódio reforça um ponto crítico: transparência, checagem manual e governança ainda são indispensáveis, mesmo em setores que já estão sendo transformados pela IA. Em áreas como saúde, direito ou finanças, erros de autoridade gerados por LLMs podem comprometer processos, clientes e a reputação de empresas. E não adianta pedir desculpas depois, a credibilidade, quando se trata de justiça, não é recuperada com um “foi mal”.

A gigante chinesa da internet Tencent afirma ter GPUs suficientes para o treinamento de futuros modelos de IA

Segundo o presidente Martin Lau, a empresa passou a adotar técnicas que reduzem a necessidade de clusters massivos, desafiando diretamente o “scaling law” defendido por big techs ocidentais. Com foco em pós-treinamento, otimização de inferência e modelos compactos, a gigante chinesa afirma que agora pode extrair o dobro de desempenho do mesmo hardware, reduzindo dependência de novas compras.

Apesar disso, a Tencent também estuda chips alternativos, ASICs e arquiteturas locais para lidar com limitações de importação e escassez de GPUs, sinalizando um movimento estratégico de autossuficiência tecnológica gradual. A empresa prioriza o uso interno de chips para aplicações com retorno imediato, como recomendações de conteúdo e publicidade, mas está desacelerando o aluguel de GPU na nuvem, segundo Pony Ma, CEO da companhia.

Os números mostram saúde robusta: faturamento de US$ 25,1 bilhões no trimestre (+13%), lucro bruto de US$ 14 bilhões e 1,4 bilhão de usuários ativos mensais em seus apps (Weixin e WeChat). O crescimento foi impulsionado por plataformas de anúncio alimentadas por IA generativa e “mini lojas” em apps de mensagens, além de performance sólida em games e streaming. Mesmo com tensões comerciais entre China e EUA, a Tencent acredita que estímulos domésticos e adaptação tecnológica garantirão resiliência no médio prazo.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

Os modelos de IA nativos da engenharia de software chegaram: o que o SWE-1 da Windsurf significa para os tomadores de decisões técnicas

A Windsurf acaba de lançar o SWE-1, sua primeira família de modelos nativos para engenharia de software, com o objetivo explícito de acelerar o trabalho de desenvolvedores em até 99%. Diferente de modelos que apenas geram código, o SWE-1 foi projetado para lidar com todo o fluxo de trabalho da engenharia, incluindo uso de terminal, testes, depuração, e interação com feedback do usuário. O modelo simula o comportamento de um engenheiro humano que trabalha com tarefas em estado incompleto, contextos ambíguos e múltiplas superfícies técnicas.

A linha é composta por três versões:

  • SWE-1 (modelo principal): comparável ao Claude 3.5 Sonnet em raciocínio técnico, mas mais barato.

  • SWE-1-lite: substitui o Cascade Base com melhor qualidade, disponível gratuitamente para todos.

  • SWE-1-mini: super leve e rápido, voltado para experiência passiva e preditiva dentro do Windsurf Tab.

Nos testes de benchmark da empresa, o SWE-1 apresentou desempenho próximo aos modelos “frontier” das big techs em tarefas como conclusão de tarefas incompletas e resolução de problemas fim-a-fim. Mais importante: em experimentos de produção com usuários reais (às cegas), o modelo teve alta taxa de reutilização e contribuição direta de código, mostrando que funciona na prática e não só em benchmarks.

Isso tudo é sustentado por um conceito central da Windsurf: “flow awareness”, um sistema que registra tudo que o usuário e a IA fazem numa linha do tempo compartilhada, texto, terminal, buscas, clipboard e usa isso para decidir o próximo passo com mais contexto e precisão.

Conteúdos extras para você

Isso é tudo por hoje!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.