• NoFinn
  • Posts
  • Novos modelos da Mistral para dispositivos de borda 🆕

Novos modelos da Mistral para dispositivos de borda 🆕

EUA estuda expandir as limitações de exportação de chips de IA, O novo CISO da OpenAI & mais

E aí curioso, seja bem vindo novamente!

Ontem publiquei uma pesquisa para entender melhor a sua opinião sobre o uso dos dados online pelos modelos de IA. 👇👇👇

Você acredita que os seus dados online estão seguros nesta era da IA mais presente em apps e na internet?

Deixe a sua opinião abaixo:

Faça Login ou Inscrever-se para participar de pesquisas.

Sua opinião é muito importante! Na sexta-feira, vou postar o resultado desta pesquisa. E no conteúdo de hoje, temos muitas novidades, venha conferir!

Ah, e caso você prefira escutar os conteúdos do NoFinn. É simples:

🌐 Se você está na versão web ou no aplicativo basta dar clicar no player no topo da página, logo abaixo do título da postagem.

📧 Caso você esteja no e-mail é só clicar aqui, ou no banner no topo do e-mail e você será direcionado para a postagem na web, após isso é só dar play no topo da página.

🎧 E pra você que já está escutando o conteúdo, maravilha! Bora lá para o resumo de hoje.

🏃TLDR

🆕 A Mistral lançou modelos de IA otimizados para dispositivos de borda, oferecendo soluções de IA eficientes para uso local. Os modelos Ministral 3B e 8B são projetados para rodar em laptops e smartphones, com baixa latência e custos acessíveis.

👀 Os EUA estão estudando expandir as limitações de exportação de chips de IA da Nvidia e AMD para países como Arábia Saudita e Emirados Árabes Unidos, por preocupações de segurança nacional. Essas nações estão investindo pesadamente em IA, o que preocupa autoridades americanas devido à crescente influência global desses países no setor de tecnologia.

🤝 Dane Stuckey, ex-CISO da Palantir, se juntou à OpenAI como seu mais novo Chief Information Security Officer (CISO), ao lado de Matt Knight, chefe de segurança da OpenAI. Stuckey destacou a importância da segurança para a missão da OpenAI e o papel crítico da empresa em garantir padrões elevados de conformidade, confiança e segurança para proteger seus milhões de usuários.

🤯 Um estudo da Apple revela as limitações dos modelos de linguagem como os LLMs em realizar raciocínios formais. O estudo aponta que os LLMs se comportam mais como sofisticados sistemas de correspondência de padrões, falhando ao lidar com mudanças sutis. Isso demonstra que esses modelos não extrapolam bem para problemas maiores ou mais complexos, como em tarefas de aritmética ou seguir regras de xadrez. A solução para essas falhas pode estar em uma abordagem neuro-simbólica, que combine redes neurais com manipulação simbólica, segundo Gary Marcus.

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Estas são as ferramentas que separei pra você hoje:

  • Basedash AI - Ferramenta para visualizar, editar e explorar dados com IA.

  • IdeaApe - Desenvolva pesquisas de mercado para entender o comportamento do cliente com a ajuda da IA.

  • Question Base - É um bot do Slack em formato de FAQ. Ele documenta as respostas, em seguida, vincula-as automaticamente quando perguntas semelhantes são feitas.

  • CommandAI - Orienta os usuários através do produto com tours interativos e um assistente demonstrando seus recursos.

  • Focus Buddy - Copiloto de produtividade de IA que fica em chamadas com você enquanto trabalha para ajudá-lo.

Mistral lança novos modelos de IA otimizados para laptops e telefones

A startup francesa de IA Mistral lançou seus primeiros modelos de IA generativa, chamados Les Ministraux, projetados para dispositivos de borda, como laptops e smartphones. Os dois modelos disponíveis são o Ministral 3B e o Ministral 8B, com capacidade de lidar com grandes volumes de dados. Eles são otimizados para uso local, oferecendo soluções de baixa latência para tradução, assistentes inteligentes sem internet e robótica autônoma. O Ministral 8B já está disponível para fins de pesquisa, enquanto as empresas interessadas devem solicitar licenças comerciais.

Os modelos são uma alternativa mais barata e rápida para executar localmente, comparado a opções maiores como os da Meta e do Google. O Ministral 3B e o 8B têm preços acessíveis, a partir de 4 a 10 centavos por milhão de tokens. A Mistral afirma que seus modelos superam concorrentes em benchmarks de resolução de problemas e seguimento de instruções.

Casa Branca considera expandir os limites de exportação de chips de IA da Nvidia e AMD para outros países

A administração Biden está avaliando expandir as restrições de exportação de chips de IA da Nvidia e AMD para novos países, como a Arábia Saudita e os Emirados Árabes Unidos. Essas restrições, inicialmente impostas à China em 2022, são motivadas por preocupações de segurança nacional. Os chips de IA de alto desempenho são considerados peças-chave para o desenvolvimento de tecnologias avançadas, como inteligência artificial, big data e processamento de dados. A possibilidade de outros países adquirirem essa tecnologia levanta questões sobre o controle global de capacidades computacionais avançadas e a influência geopolítica.

Com os data centers crescendo exponencialmente e a corrida pela supremacia em IA acelerando, essas restrições têm o objetivo de limitar o acesso de potências emergentes a tecnologias que poderiam desafiar a hegemonia tecnológica dos EUA. A medida é um reflexo das crescentes tensões globais em torno da tecnologia, particularmente em relação à inteligência artificial e sua aplicação em setores críticos.

O ex-CISO da Palantir, Dane Stuckey, junta-se à OpenAI para liderar a segurança

Dane Stuckey, ex-CISO da Palantir, se juntou à OpenAI como seu mais novo Chief Information Security Officer (CISO), ao lado de Matt Knight, chefe de segurança da OpenAI. Stuckey destacou a importância da segurança para a missão da OpenAI e o papel crítico da empresa em garantir padrões elevados de conformidade, confiança e segurança para proteger seus milhões de usuários.

Ele traz uma vasta experiência em segurança digital, tendo trabalhado na Palantir desde 2014, além de ter ocupado cargos no setor comercial e no governo em segurança cibernética.

A OpenAI tem intensificado seus esforços de segurança, especialmente com o aumento de colaborações com o Departamento de Defesa dos EUA, após suspender sua proibição de venda de tecnologia de IA para o setor militar em janeiro.

Mais notícias ao redor do mercado de IAs

Limitações de raciocínio dos LLMs

Gary Marcus, em seu artigo "LLMs don’t do formal reasoning - and that is a HUGE problem", levanta uma questão fundamental sobre os modelos de linguagem de grande escala (LLMs): a incapacidade de realizarem raciocínio formal. O artigo foi inspirado por um estudo recente conduzido por seis pesquisadores da Apple.

O estudo conduzido pela Apple mostra que, apesar de sua sofisticação, os LLMs carecem de raciocínio formal robusto. Em vez disso, eles funcionam principalmente com base na correspondência de padrões. Isso significa que, ao lidar com problemas que exigem mudanças de contexto ou raciocínio abstrato, como a substituição de nomes em uma questão de lógica, os modelos tendem a falhar.

Um exemplo claro disso foi o desempenho inconsistente dos LLMs em um experimento de multiplicação de números inteiros, onde, à medida que os números se tornam maiores, a precisão cai drasticamente, algo que seria inimaginável em um sistema como uma calculadora.

Outro exemplo citado por Marcus é a fragilidade desses sistemas. Ao contrário dos humanos, que podem lidar com distrações ou alterações contextuais sem grandes problemas, os LLMs mostram uma sensibilidade excessiva a mudanças sutis. Por exemplo, uma simples mudança de nome em uma pergunta pode resultar em uma queda de até 10% no desempenho.

O problema é que, embora isso funcione bem para tarefas pré-definidas e padrões simples, torna-se um obstáculo insuperável em cenários mais complexos, como a criação de agentes de IA confiáveis para resolver problemas do mundo real.

Outro problema significativo apontado no artigo é que, à medida que os problemas aumentam em complexidade e tamanho, os modelos de IA frequentemente falham. Essa falha em solucionar problemas maiores ou mais complexos com eficácia demonstra que os LLMs não estão raciocinando de forma lógica ou formal, mas apenas reproduzindo padrões encontrados em dados menores.

Para superar essas limitações, Marcus defende uma abordagem neuro-simbólica, que significa que, além de treinar modelos com base em dados, seria possível integrar uma estrutura simbólica, onde conceitos são representados como variáveis e manipulados com operações matemáticas ou lógicas. Isso possibilitaria que as IAs não apenas reconhecessem padrões, mas também aplicassem regras e lógica formal em cenários que exigem mais do que apenas correspondência de padrões.

Marcus também prevê que tecnologias emergentes, como os robotáxis autônomos, enfrentarão problemas semelhantes devido à falta de raciocínio formal nos modelos atuais. Isso levanta preocupações sobre a confiabilidade e segurança dessas tecnologias em larga escala. Se a IA não consegue realizar raciocínio formal de maneira confiável, há limitações claras em seu uso em aplicações que exigem tomadas de decisão complexas e adaptáveis.

Conteúdos extras para você

Isso é tudo por hoje, pessoal!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento aos próximos conteúdos!

Caso tenha interesse, possuo alguns conteúdos já publicados em meu site. Dê uma olhada:

Confira mais conteúdos!

Reply

or to participate.