• NoFinn
  • Posts
  • Google lança Gemini 2.0 Flash Thinking ✨

Google lança Gemini 2.0 Flash Thinking ✨

LinkedIn é acusado de usar mensagens privadas de usuários para treinar IA, Fórum Econômico Mundial lançou um projeto de adoção inclusiva e responsável da IA em escala global & mais

E aí curioso, seja bem vindo novamente a NoFinn.

Aqui estão as principais novidades do mercado de IA de hoje para você 👇

🏃TLDR

 O Google lançou o Gemini 2.0 Flash Thinking, um modelo de IA gratuito que desafia a abordagem premium da OpenAI. Com capacidade de processar até 1 milhão de tokens simultaneamente — cinco vezes mais do que o o1 Pro da OpenAI —, o modelo oferece desempenho aprimorado em benchmarks matemáticos e científicos, como 73,3% no AIME e 74,2% no GPQA Diamond. Além disso, ele incorpora execução nativa de código e maior transparência ao explicar seu raciocínio, abordando preocupações de confiabilidade e contraditoriedade.

👀 Um processo nos Estados Unidos acusa o LinkedIn de compartilhar mensagens privadas de usuários do LinkedIn Premium com terceiros para treinar modelos de IA, sem o consentimento explícito dos usuários. A ação alega que, em agosto de 2024, a plataforma introduziu uma configuração de privacidade automaticamente ativada, permitindo o uso de dados pessoais para IA. Em setembro, teria alterado sua política de privacidade para justificar o compartilhamento retroativo desses dados.

▶️ O Fórum Econômico Mundial (WEF) lançou o Blueprint for Intelligent Economies, um guia estratégico para promover uma adoção inclusiva e responsável da IA em escala global. Desenvolvido em parceria com a KPMG, o blueprint destaca nove objetivos para apoiar governos, empresas e outras partes interessadas em todas as fases do ciclo de vida da IA, abordando desigualdades no acesso à tecnologia, infraestrutura, dados e capacitação. A meta é alavancar a IA para crescimento sustentável e equitativo, enquanto se combatem os riscos de exclusão e preconceito.

⚖️ O presidente Donald Trump revogou a ordem executiva de 2023, que exigia que empresas de IA submetessem dados de testes de segurança ao governo federal antes do lançamento público. Essa decisão, alinhada à plataforma republicana de 2024, busca remover barreiras à inovação, mas interrompe regulamentos importantes destinados a mitigar riscos à segurança pública, cibernética e nacional. A ordem original, assinada por Biden, obrigava as agências federais a desenvolver padrões de segurança para a IA, incluindo aplicações críticas em saúde e defesa.

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão as ferramentas que separei hoje para você:

  • Bluedot - Ferramenta de IA para gravar suas reuniões e anotar os pontos importantes.

  • Browser AI Kit - Execute ferramentas de IA diretamente no seu navegador.

  • GitHub Spark AI - O GitHub Spark é uma ferramenta baseada em IA para criar e compartilhar microaplicativos.

  • Inncivio - Aprenda qualquer coisa mais rápido com Al personalizado.

  • Phidata - Ajuda você a criar e gerenciar equipes de agentes de IA que podem pesquisar na web, analisar dados e resolver problemas, mantendo uma memória de suas conversas.

Google lança modelo gratuito Gemini 2.0 Flash Thinking, pressionando a estratégia premium da OpenAI

O Google lançou o Gemini 2.0 Flash Thinking, um modelo de IA gratuito que desafia a abordagem premium da OpenAI. Com capacidade de processar até 1 milhão de tokens simultaneamente — cinco vezes mais do que o o1 Pro da OpenAI —, o modelo oferece desempenho aprimorado em benchmarks matemáticos e científicos, como 73,3% no AIME e 74,2% no GPQA Diamond. Além disso, ele incorpora execução nativa de código e maior transparência ao explicar seu raciocínio, abordando preocupações de confiabilidade e contraditoriedade.

O Gemini 2.0 supera versões anteriores em tarefas de raciocínio avançado, como prompts complexos e geração de código, e se posiciona como uma alternativa atraente para desenvolvedores e empresas durante sua fase beta gratuita, que conta com limites de uso. Jeff Dean, cientista-chefe da Google DeepMind, destacou que o modelo se beneficiará de melhorias contínuas na confiabilidade e nos mecanismos de verificação interna.

Essa iniciativa reflete uma mudança estratégica do Google, que busca aliar acessibilidade e inovação para atrair usuários e competir diretamente com a OpenAI. No entanto, o desafio será convencer o mercado de que o Gemini 2.0, mesmo gratuito, pode superar modelos pagos em aplicações comerciais reais.

LinkedIn é acusado de usar mensagens privadas para treinar IA

Um processo nos Estados Unidos acusa o LinkedIn de compartilhar mensagens privadas de usuários do LinkedIn Premium com terceiros para treinar modelos de IA, sem o consentimento explícito dos usuários. A ação alega que, em agosto de 2024, a plataforma introduziu uma configuração de privacidade automaticamente ativada, permitindo o uso de dados pessoais para IA. Em setembro, teria alterado sua política de privacidade para justificar o compartilhamento retroativo desses dados.

O processo, movido por um usuário premium em nome de outros afetados, busca US$ 1.000 por usuário por violação de contratos e leis de comunicação armazenada, além de compensação por concorrência desleal. O LinkedIn, que gerou US$ 1,7 bilhão em receita de assinaturas premium em 2023, negou as alegações, chamando-as de "falsas e sem mérito".

A empresa afirma que não ativou o compartilhamento de dados de IA no Reino Unido, no Espaço Econômico Europeu ou na Suíça. O caso destaca preocupações crescentes sobre privacidade e governança de IA em plataformas de tecnologia.

Fórum Econômico Mundial revela projeto para IA equitativa

O Fórum Econômico Mundial (WEF) lançou o Blueprint for Intelligent Economies, um guia estratégico para promover uma adoção inclusiva e responsável da IA em escala global. Desenvolvido em parceria com a KPMG, o blueprint destaca nove objetivos para apoiar governos, empresas e outras partes interessadas em todas as fases do ciclo de vida da IA, abordando desigualdades no acesso à tecnologia, infraestrutura, dados e capacitação. A meta é alavancar a IA para crescimento sustentável e equitativo, enquanto se combatem os riscos de exclusão e preconceito.

Três áreas principais são priorizadas:

  1. Construção de infraestrutura sustentável de IA, garantindo eficiência energética e expansão escalável.

  2. Curadoria de dados diversificados e de alta qualidade, para mitigar vieses e promover inclusão cultural e linguística.

  3. Estabelecimento de guardrails éticos e de segurança, garantindo confiança e governança responsável para a adoção da IA.

O WEF enfatiza a importância de lideranças regionais e colaboração global, sugerindo iniciativas como programas de aprendizagem contínua, subsídios público-privados e frameworks cooperativos entre nações. O relatório busca alinhar inovação tecnológica com equidade social e governança ética, oferecendo um roteiro para maximizar o potencial transformador da IA de forma que beneficie a todos.

Mais notícias ao redor do mercado de IAs

Como a eliminação dos regulamentos de segurança de IA por Trump impacta a IA global

O presidente Donald Trump revogou a ordem executiva de 2023, que exigia que empresas de IA submetessem dados de testes de segurança ao governo federal antes do lançamento público. Essa decisão, alinhada à plataforma republicana de 2024, busca remover barreiras à inovação, mas interrompe regulamentos importantes destinados a mitigar riscos à segurança pública, cibernética e nacional. A ordem original, assinada por Biden, obrigava as agências federais a desenvolver padrões de segurança para a IA, incluindo aplicações críticas em saúde e defesa.

Essa mudança ocorre em meio à rápida evolução da inteligência geral artificial (AGI) e ao aumento da competição global. Enquanto os EUA optam por uma abordagem menos intervencionista, a União Europeia avança com o AI Act, que regula rigorosamente setores como saúde e aplicação da lei. Nos EUA, leis estaduais, como as da Califórnia e Illinois, continuam operacionais, impondo salvaguardas contra discriminação algorítmica e transparência.

A revogação gera reações mistas na indústria tecnológica: algumas empresas comemoram a redução de regulamentações, enquanto outras alertam para os riscos de desenvolvimento não supervisionado. O futuro das políticas de IA sob Trump parece inclinar-se para o laissez-faire, com a nomeação de David Sacks, crítico de regulamentações, para liderar questões de IA e criptomoedas.

Conteúdos extras para você

Isso é tudo por hoje!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.