- NoFinn
- Posts
- OpenAI quer a proibição do Deepseek 👀
OpenAI quer a proibição do Deepseek 👀
Supercomputador da Nvidia é adotado pela primeira empresa, Softbank compra antiga fábrica visando criação de datacenter & mais
E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.
E aqui está a sua dose de hoje 👇
🏃TLDR⌚
👀 A OpenAI classificou o laboratório chinês de IA DeepSeek como uma entidade "subsidiada e controlada pelo Estado", recomendando que o governo dos EUA proíba seus modelos de IA. A proposta, enviada para o plano de ação de IA da administração Trump, argumenta que os modelos da DeepSeek, incluindo o R1, apresentam riscos à segurança e privacidade, pois a empresa estaria sujeita às leis chinesas que exigem compartilhamento de dados com o governo.
🆕 A Block, empresa fintech fundada por Jack Dorsey, tornou-se a primeira empresa da América do Norte a adotar o Nvidia DGX SuperPOD com GPUs Blackwell, fortalecendo sua infraestrutura de IA open-source. A iniciativa visa aprimorar pesquisa e desenvolvimento em IA generativa, incluindo detecção de deepfakes e modelos de fala sintética.
💵 A SoftBank anunciou a compra de uma antiga fábrica da Sharp em Osaka, no Japão, por US$ 676 milhões, com o objetivo de convertê-la em um centro de dados de IA. A instalação, anteriormente usada para a produção de painéis LCD, será fundamental para o treinamento e implantação de modelos de IA da OpenAI no Japão, dentro da iniciativa SB OpenAI Japan, uma joint venture entre as duas empresas.
💻 O uso de IA para desenvolvimento de código tem crescido rapidamente, e especialistas estimam que 90% do código poderá ser gerado por IA nos próximos seis meses. No entanto, esse avanço também traz desafios, como falhas de segurança, bugs críticos e falta de governança, o que pode comprometer sistemas empresariais. Empresas já relatam incidentes, como um CTO do setor financeiro que afirmou sofrer uma falha por semana devido a erros em código gerado por IA.
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão algumas das ferramentas que separei hoje pra você:
Agent.ai - Rede que permite com que os usuários podem descobrir, conectar e contratar agentes de IA para tarefas úteis
Gemini Robotics - Modelos de IA baseados em Gemini 2.0 focados em robôs.
Pi - O kit de ferramentas de Machine Learning e ciência de dados.
Question Base - É um bot do Slack em formato de FAQ. Ele documenta as respostas, em seguida, vincula-as automaticamente quando perguntas semelhantes são feitas.
Inncivio - É uma infraestrutura de aprendizado baseada em IA para empresas.
OpenAI chama DeepSeek de "controlado pelo estado", pede proibições de modelos "produzidos pela RPC"

A OpenAI classificou o laboratório chinês de IA DeepSeek como uma entidade "subsidiada e controlada pelo Estado", recomendando que o governo dos EUA proíba seus modelos de IA. A proposta, enviada para o plano de ação de IA da administração Trump, argumenta que os modelos da DeepSeek, incluindo o R1, apresentam riscos à segurança e privacidade, pois a empresa estaria sujeita às leis chinesas que exigem compartilhamento de dados com o governo.
A OpenAI sugere que modelos "produzidos na China" sejam banidos em países considerados de "Tier 1", conforme as regras de exportação da era Biden, para reduzir o risco de roubo de propriedade intelectual e acesso indevido a dados. No entanto, não há evidências concretas ligando diretamente a DeepSeek ao governo chinês, embora o fundador da empresa, Liang Wenfeng, tenha se reunido com Xi Jinping recentemente.
Essa nova acusação intensifica o conflito entre OpenAI e DeepSeek, que já havia sido acusada de "distorcer conhecimento" de modelos da OpenAI, violando seus termos de serviço. Empresas como Microsoft, Perplexity e Amazon já hospedam modelos abertos da DeepSeek, levantando questões sobre como essas possíveis restrições poderiam impactar o mercado global de IA.
Block implementa o mais recente supercomputador de IA da Nvidia

A Block, empresa fintech fundada por Jack Dorsey, tornou-se a primeira empresa da América do Norte a adotar o Nvidia DGX SuperPOD com GPUs Blackwell, fortalecendo sua infraestrutura de IA open-source. A iniciativa visa aprimorar pesquisa e desenvolvimento em IA generativa, incluindo detecção de deepfakes e modelos de fala sintética.
O DGX SuperPOD, alimentado pela arquitetura Nvidia Grace Blackwell, permite treinamento de modelos de IA massivos em setores como saúde, robótica e sistemas autônomos. A Block também fechou parcerias com Lambda e Equinix para otimizar seus modelos antes da implementação em larga escala.
A empresa reforçou seu compromisso com IA open-source, destacando seu projeto “goose”, um framework para integrar modelos de linguagem a aplicações do mundo real. Segundo o CTO Dhanji R. Prasanna, essa infraestrutura busca democratizar o acesso à IA e impulsionar inovações no setor financeiro.
SoftBank compra antiga fábrica da Sharp por US$ 676 milhões para sua colaboração OpenAI no Japão
![]() | A SoftBank anunciou a compra de uma antiga fábrica da Sharp em Osaka, no Japão, por US$ 676 milhões, com o objetivo de convertê-la em um centro de dados de IA. A instalação, anteriormente usada para a produção de painéis LCD, será fundamental para o treinamento e implantação de modelos de IA da OpenAI no Japão, dentro da iniciativa SB OpenAI Japan, uma joint venture entre as duas empresas. |
O centro de dados deverá começar a operar em 2026, inicialmente com 150 megawatts de capacidade, podendo crescer para mais de 240 megawatts. Esse é o terceiro data center da SoftBank no país, reforçando sua aposta na infraestrutura para IA. Além da construção desse hub, a SoftBank também está negociando um investimento de US$ 25 bilhões na OpenAI, o que elevaria a avaliação da empresa para quase US$ 300 bilhões.
Esse movimento destaca a estratégia da SoftBank de se tornar líder na infraestrutura de IA no Japão, competindo globalmente no setor. A iniciativa também reforça a expansão da OpenAI na Ásia, após colaborações com Oracle e outras empresas nos EUA para a construção de novos centros de IA.
🇧🇷 Novidade do setor para o Brasil 🇧🇷
Revolução na educação: cursos gratuitos de inteligência artificial que estão transformando carreiras no Brasil.
WideLabs lança Amazônia 360, plataforma de IA soberana do Brasil.
IA pode ser solução para garantir segurança alimentar no Brasil.
Regulamentação da IA na Saúde deve ser equilibrada para não comprometer a implementação de novas tecnologias que aprimoram diagnósticos e tratamentos.
3ª força da IA: Europa muda foco e complica o Brasil.
Mais notícias ao redor do mercado de IAs
O Google quer que o Gemini conheça você melhor.
Google pede regras de direitos autorais e exportação enfraquecidas na proposta de política de IA.
Sesame, a startup por trás da assistente virtual viral Maya, lança seu modelo básico de IA.
Democratas pedem garantias às agências federais de que o DOGE não está alimentando dados na IA à toa.
OpenAI e Google pedem ação do governo dos EUA para garantir liderança em IA.
Resumos de IA estão chegando ao Bloco de Notas do Windows.
Gemini 2.0 Flash Thinking agora tem integração de memória e aplicativos do Google.
SoftBank aposta US$ 130 milhões em empresa de fazenda solar assistida por robôs.
É assim que podemos alcançar a nova era de LLMs

O uso de IA para desenvolvimento de código tem crescido rapidamente, e especialistas estimam que 90% do código poderá ser gerado por IA nos próximos seis meses. No entanto, esse avanço também traz desafios, como falhas de segurança, bugs críticos e falta de governança, o que pode comprometer sistemas empresariais. Empresas já relatam incidentes, como um CTO do setor financeiro que afirmou sofrer uma falha por semana devido a erros em código gerado por IA.
Os principais riscos incluem:
Segurança: Modelos treinados com códigos vulneráveis podem introduzir brechas de segurança.
Confiança cega: Desenvolvedores podem assumir que o código gerado é seguro sem revisão adequada.
Compliance e governança: A IA pode gerar código que não segue normas regulatórias ou diretrizes internas.
Para mitigar esses problemas, empresas estão adotando ferramentas especializadas de verificação, como as da Sonar e Endor Labs, que identificam padrões de código gerado por IA e avaliam sua confiabilidade. Além disso, especialistas recomendam que as organizações implementem processos rigorosos de validação, exijam accountability dos desenvolvedores e criem políticas claras de uso de IA para evitar falhas catastróficas.
Conteúdos extras para você
📄 O que se perde quando os motoristas humanos se vão? | Acesse o conteúdo completo.
🧠 Como a IA B2B da EY e da NVIDIA pode remodelar a indústria de telecomunicações | Acesse o conteúdo completo.
🎧 A relação de 'inimigos' entre a OpenAI e a Microsoft e o que você perdeu no SXSW | Acesse o conteúdo completo.
ℹ️ A IA está ficando sem energia apesar do esforço da Microsoft | Acesse o conteúdo completo.
🧠 Financiamento para startups de chips dos EUA dispara à medida que os dólares globais caem em meio à incerteza comercial | Acesse o conteúdo completo.
🧠 ServiceNow implanta agentes de IA para impulsionar fluxos de trabalho empresariais | Acesse o conteúdo completo.
ℹ️ Agente de IA Manus: avanço na IA de agente da China | Acesse o conteúdo completo.
🧠 Pesquisadores da Anthropic forçaram Claude a se tornar enganoso. O que eles descobriram pode nos salvar de uma IA desonesta | Acesse o conteúdo completo.
🧠 Nova técnica ajuda LLMs a controlar comprimentos de CoT, otimizando o raciocínio sem explodir os custos de computação | Acesse o conteúdo completo.
📄 Ninguém sabe o que, de fato, é um agente de IA | Acesse o conteúdo completo.
Isso é tudo por hoje!
Me conta: o que você achou do conteúdo de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Não perca nada!
Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!
Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.
Reply