• NoFinn
  • Posts
  • Anthropic lança nova ferramenta para conexão de dados e chatbots 😯

Anthropic lança nova ferramenta para conexão de dados e chatbots 😯

Novas tecnologias da Meta para uso de IA, IMAX vai utilizar IA em seus conteúdos & mais

E aí curioso, seja bem vindo novamente!

Aqui estão as novidades do mercado de IA para hoje.

Ah, e caso você prefira escutar os conteúdos do NoFinn. É simples:

🌐 Se você está na versão web ou no aplicativo basta dar clicar no player no topo da página, logo abaixo do título da postagem.

📧 Caso você esteja no e-mail é só clicar aqui, ou no banner no topo do e-mail e você será direcionado para a postagem na web, após isso é só dar play no topo da página.

🎧 E pra você que já está escutando o conteúdo, maravilha! Bora lá para o resumo de hoje.

🏃TLDR

💽 🤖 A Anthropic lançou o Model Context Protocol (MCP), uma ferramenta de código aberto que conecta assistentes de IA diretamente a fontes de dados relevantes para suas tarefas. O MCP permite aos desenvolvedores integrar seus modelos de IA com várias bases de dados através de um protocolo universal, eliminando a necessidade de criar códigos personalizados para cada integração.

🆕 A Meta está desenvolvendo tecnologias avançadas para IA, incluindo um sistema de interconexão chip-a-chip baseado em protocolos Ethernet. Essa arquitetura organiza a comunicação em várias camadas, cada uma com funções específicas, como transmissão de dados, verificação de integridade e entrega final.

🎦 A IMAX, reconhecida por suas experiências cinematográficas imersivas, está investindo em IA para traduzir e dublar seus conteúdos originais, incluindo documentários, a fim de alcançar públicos globais. Em parceria com a startup de Dubai Camb.ai, a empresa usará modelos como o Boli e o Mars para traduções e emulações de fala em até 140 idiomas, incluindo línguas pouco representadas.

🧠 Empresas como OpenAI, Google e xAI estão investindo bilhões em hardware para treinar modelos massivos de IA, visando alcançar a inteligência artificial geral (AGI). No entanto, esse foco em LLMs robustos, mas caros, criou um ecossistema desequilibrado, onde os altos custos de inferência limitam a inovação de aplicativos para consumidores e empresas. Uma nova abordagem, que enfatiza modelos mais leves e econômicos, está emergindo como solução.

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão algumas das ferramentas que separei hoje pra você:

  • Averi - Plataforma para elaborar uma estratégia de marketing, criar conteúdo e construir uma equipe perfeita.

  • Upsolve - Ferramentta para criar e incorporar painéis de análise voltados para o se cliente.

  • Reflexivity - Ferramenta que analisa dados financeiros e testa hipóteses de mercado com linguagem natural.

  • Read AI - Ferramenta para melhorar a produtividade em reuniões, e-mails e mensagens, fornecendo resumos, transcrição e descoberta de conteúdo com ajuda de IA.

  • SwarmStack - Ferramenta para auxiliar desde o planejamento do produto até o lançamento no mercado com recomendações personalizadas para cada etapa de sua jornada.

A nova maneira que a Anthropic propôs para conectar dados a chatbots de IA

Fonte: Anthropic

A Anthropic lançou o Model Context Protocol (MCP), uma ferramenta de código aberto que conecta assistentes de IA diretamente a fontes de dados relevantes para suas tarefas. O MCP permite aos desenvolvedores integrar seus modelos de IA com várias bases de dados através de um protocolo universal, eliminando a necessidade de criar códigos personalizados para cada integração. A empresa afirma que a ferramenta simplifica a conexão de IA com diferentes fontes de dados e promove uma arquitetura mais sustentável para o desenvolvimento de agentes de IA.

Ferramentas como Replit, Codeium e Sourcegraph já estão utilizando o MCP para criar agentes que podem realizar tarefas específicas em nome dos usuários. A proposta é substituir as integrações fragmentadas atuais por uma abordagem padronizada, melhorando a retenção de contexto dos modelos enquanto eles acessam múltiplas fontes de dados.

Meta foca no experimento de ferramentas de negócios de IA

Fonte: U.S. Patent and Trademark Office

A Meta está desenvolvendo tecnologias avançadas para IA, incluindo um sistema de interconexão chip-a-chip baseado em protocolos Ethernet. Essa arquitetura organiza a comunicação em várias camadas, cada uma com funções específicas, como transmissão de dados, verificação de integridade e entrega final. A tecnologia utiliza controle de fluxo baseado em crédito, garantindo que os dados sejam trocados apenas quando os sistemas estão preparados para recebê-los, reduzindo erros e aumentando a eficiência.

Além disso, a Meta contratou Clara Shih, ex-CEO de IA da Salesforce, para liderar uma nova unidade de IA focada em ferramentas empresariais. A empresa busca criar soluções para negócios que utilizam suas plataformas, como Facebook e Instagram. No entanto, enfrenta o desafio de se destacar em um mercado saturado por gigantes como OpenAI e Google.

IMAX vai utilizar IA para expandir o alcance do seu conteúdo

Em parceria com a startup de Dubai Camb.ai, a empresa usará modelos como o Boli e o Mars para traduções e emulações de fala em até 140 idiomas, incluindo línguas pouco representadas. Essa tecnologia reduz custos de tradução e promete entregar dublagens precisas, mantendo nuances culturais e sonoras, como músicas de fundo e ambientação.

A Camb.ai utiliza um modelo em três camadas: base de modelos de IA, infraestrutura para hospedagem e uma interface chamada DubStudio. A tecnologia já foi testada em eventos esportivos como o Australian Open e agora será aplicada gradualmente nos conteúdos da IMAX. A startup evita práticas como coleta de dados indiscriminada da internet, usando conjuntos licenciados academicamente e parcerias comerciais para aprimorar seus modelos.

Mais notícias ao redor do mercado de IAs

Como chegar à inteligência artificial geral?

Empresas como OpenAI, Google e xAI estão investindo bilhões em hardware para treinar modelos massivos de IA, visando alcançar a inteligência artificial geral (AGI). No entanto, esse foco em LLMs robustos, mas caros, criou um ecossistema desequilibrado, onde os altos custos de inferência limitam a inovação de aplicativos para consumidores e empresas. Por exemplo, em 2023, o custo por consulta em IA de ponta era de cerca de US$ 10, comparado aos US$ 0,01 das buscas convencionais no Google. Apesar da queda para US$ 1 por consulta em 2024, os preços continuam sendo uma barreira significativa.

Uma nova abordagem, que enfatiza modelos mais leves e econômicos, está emergindo como solução. Startups como Rhymes.ai estão treinando modelos com custos bem menores, US$ 3 milhões contra os mais de US$ 100 milhões do GPT-4, e alcançando desempenho quase equivalente. Esse paradigma, que combina integração vertical entre modelo, motor de inferência e aplicativos, promete democratizar o acesso à IA, viabilizando soluções acessíveis para consumidores e empresas.

Conteúdos extras para você

Isso é tudo por hoje, pessoal!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento aos próximos conteúdos!

Caso tenha interesse, possuo alguns conteúdos já publicados em meu site. Dê uma olhada:

Confira mais conteúdos!

Reply

or to participate.