• NoFinn
  • Posts
  • iOS 18.2 beta liberado para desenvolvedores 🍎

iOS 18.2 beta liberado para desenvolvedores 🍎

Pesquisador sênior da OpenAI deixa a empresa, Parcerias da Nvidia com empresas indianas & mais

E aí curioso, seja bem vindo novamente!

Novidades sobre o Apple Intelligence foram liberadas e podemos enteder melhor como a integração com o ChatGPT vai funcionar. E falando em OpenAI, a empresa registra a saída de mais um dos seus pesquisadores… Enquanto isso a Nvidia vem dominando ainda mais o mercado com suas novas parcerias. Estas são somente algumas das notícias de hoje, bora se atualizar de tudo o que tá rolando no mercado?

Ah, e caso você prefira escutar os conteúdos do NoFinn. É simples:

🌐 Se você está na versão web ou no aplicativo basta dar clicar no player no topo da página, logo abaixo do título da postagem.

📧 Caso você esteja no e-mail é só clicar aqui, ou no banner no topo do e-mail e você será direcionado para a postagem na web, após isso é só dar play no topo da página.

🎧 E pra você que já está escutando o conteúdo, maravilha! Bora lá para o resumo de hoje.

🏃TLDR

🍎 A Apple lançou as betas para desenvolvedores do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, que trazem novos recursos de Apple Intelligence, como Genmoji, Image Playground, Visual Intelligence e integração com o ChatGPT. As atualizações incluem APIs para ferramentas de escrita, emojis gerados por IA e manipulação de imagens, permitindo que desenvolvedores integrem esses recursos em seus aplicativos.

👋 Miles Brundage, pesquisador sênior da OpenAI e consultor da equipe de prontidão para AGI, anunciou sua saída da empresa. Ele acredita que poderá causar mais impacto no setor sem fins lucrativos, onde terá mais liberdade para publicar suas pesquisas sobre política de IA. Em sua despedida, Brundage enfatizou a importância da cultura de tomada de decisões rigorosas na OpenAI, especialmente com o crescente papel da IA em diversos setores.

🤝 A Nvidia anunciou uma série de parcerias com empresas indianas, como Reliance e Tech Mahindra, para implantar seus chips e tecnologias de IA no país, reforçando sua atuação em um mercado estratégico. A Nvidia também está colaborando com empresas como Tata Communications e Yotta Data Services, que planejam comprar dezenas de milhares de chips Nvidia H100 até o final de 2024.

🧠 Vishnu R Nair argumenta que os LLMs, como ChatGPT, não pensam de fato, mas fazem previsões com base em padrões de frequência em seus dados de treinamento. Em vez de raciocinar, eles usam um sistema de votação, onde as respostas mais prováveis, baseadas na frequência com que aparecem nos dados, são as escolhidas. Isso funciona bem para perguntas comuns, mas falha em questões fora do comum, pois os LLMs não possuem raciocínio formal.

Além disso, olha o que você verá hoje:

🛠 Caixa de Ferramentas 🛠

Aqui estão as ferramentas que separei hoje para você:

  • Multimodal Embed 3 - Ferramenta de IA da Cohere que ajuda você a pesquisar texto e imagens em seus documentos comerciais.

  • You.com - Ferramenta de pesquisa com IA, com recurso chamado ‘Advanced Source Controls’, que permite personalizar pesquisas filtrando sites, bloqueando domínios e ajustando as necessidades de pesquisa, desde pesquisas rápidas até pesquisas profundas.

  • Reiden.ai - Ferramenta de IA para encontrar áreas em que você está lento no trabalho e sugerir atalhos de teclado para melhorar a eficiência.

  • Prisma - Obtenha insights e recomendações para melhorar as consultas de banco de dados, tornando a execução dos seus aplicativos mais rápida.

  • Cody - Assistente de IA que você pode treinar em sua empresa utilizando seus processos e sua própria base de conhecimento.

Versão beta do iOS 18.2 apresenta novas integrações com ChatGPT e recursos de IA

A Apple lançou as betas para desenvolvedores do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, que trazem novos recursos de Apple Intelligence, como Genmoji, Image Playground, Visual Intelligence e integração com o ChatGPT. As atualizações incluem APIs para ferramentas de escrita, emojis gerados por IA e manipulação de imagens, permitindo que desenvolvedores integrem esses recursos em seus aplicativos.

Além disso, a Apple expandiu a localização da linguagem em inglês, adicionando variantes como inglês australiano, canadense, neozelandês, sul-africano e britânico. Outras localizações em diversos idiomas estão previstas para 2025, mas devido a barreiras regulatórias, China e União Europeia podem não ter acesso a esses recursos.

Pesquisador de políticas deixa a OpenAI após mais de seis anos

Miles Brundage, pesquisador sênior da OpenAI e consultor da equipe de prontidão para AGI, anunciou sua saída da empresa. Ele acredita que poderá causar mais impacto no setor sem fins lucrativos, onde terá mais liberdade para publicar suas pesquisas sobre política de IA. Em sua despedida, Brundage enfatizou a importância da cultura de tomada de decisões rigorosas na OpenAI, especialmente com o crescente papel da IA em diversos setores.

A divisão de pesquisa econômica da OpenAI, antes parte da equipe de prontidão para AGI, agora estará sob a liderança do novo economista-chefe da OpenAI, Ronnie Chatterji. Outros projetos da equipe de AGI serão distribuídos entre diferentes divisões, com Joshua Achiam, chefe de alinhamento de missão, assumindo parte das responsabilidades. A OpenAI está passando por um período de transição, com várias saídas de alto escalão nas últimas semanas.

Nvidia assina uma série de acordos relacionados à IA na Índia

A Nvidia anunciou uma série de parcerias com empresas indianas, como Reliance e Tech Mahindra, para implantar seus chips e tecnologias de IA no país, reforçando sua atuação em um mercado estratégico. A Nvidia também está colaborando com empresas como Tata Communications e Yotta Data Services, que planejam comprar dezenas de milhares de chips Nvidia H100 até o final de 2024.

Além disso, startups e grandes empresas de tecnologia da Índia estão utilizando as soluções da Nvidia para desenvolver modelos de IA em diversos idiomas locais, incluindo o Hindi.

Mais notícias ao redor do mercado de IAs

As “previsões” dos LLMs

Vishnu R Nair argumenta que os LLMs, como ChatGPT-4, não estão realmente pensando ou raciocinando da maneira como os humanos fazem. Em vez disso, os LLMs são projetados para identificar padrões e prever a próxima palavra ou conjunto de palavras com base em frequências e probabilidades encontradas em seus vastos dados de treinamento. Essa abordagem é muitas vezes eficaz para responder a perguntas comuns, mas tem suas limitações quando os modelos enfrentam situações complexas ou fora do escopo de seu treinamento.

LLMs funcionam de maneira semelhante a um sofisticado jogo de completamento de sentenças. Eles usam o tamanho do contexto disponível para prever as próximas palavras com base nas probabilidades associadas a frases que já viram em seus dados de treinamento. Quando fazemos uma pergunta a um LLM, ele não "pensa" ou "entende" o problema como um humano. Em vez disso, ele busca padrões nos dados de treinamento e, com base na frequência desses padrões, oferece a resposta mais provável.

Vishnu compara o mecanismo dos LLMs a um sistema de votação, onde cada instância de uma resposta encontrada nos dados é um "voto". A resposta que teve mais "votos" — ou seja, que apareceu mais vezes no treinamento — é a que o modelo oferece como resposta. Isso é semelhante ao funcionamento de plataformas como o Stack Overflow, onde a resposta com mais votos da comunidade sobe ao topo e é vista como a mais relevante.

Uma das maiores críticas apresentadas por Vishnu é que, apesar de seu desempenho impressionante, os LLMs não realizam raciocínio formal. Eles são excelentes em identificar padrões em grandes volumes de dados e em fornecer respostas baseadas nesses padrões, mas carecem de capacidade lógica ou pensamento crítico. Eles não podem, por exemplo, raciocinar sobre problemas complexos ou adaptar-se a novos contextos de maneira independente, sem depender de padrões prévios.

Se os LLMs não são capazes de raciocinar formalmente e dependem de padrões existentes, isso levanta questões sobre até que ponto eles podem ser confiáveis em aplicações críticas, como assistência médica, análise jurídica ou decisões financeiras.

O futuro da IA provavelmente precisará abordar essas limitações, seja por meio da integração de sistemas de raciocínio simbólico ou pela criação de novos paradigmas de IA que possam raciocinar de maneira mais formal.

Conteúdos extras para você

Isso é tudo por hoje, pessoal!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento aos próximos conteúdos!

Caso tenha interesse, possuo alguns conteúdos já publicados em meu site. Dê uma olhada:

Confira mais conteúdos!

Reply

or to participate.