• NoFinn
  • Posts
  • Midjourney não quer ficar para trás e lança seu novo gerador de imagens V7 🖼️

Midjourney não quer ficar para trás e lança seu novo gerador de imagens V7 🖼️

Devin lança a sua nova versão mais rápida e barata, OpenAI investe US$ 43mi em startup de cibersegurança & mais

E aí curioso, seja bem vindo novamente a NoFinn, a sua newsletter diária sobre IA.

Para fechar esta semana, as notícias seguem com tudo. E hoje temos dois nomes que não apareciam há um bom tempo: Midjourney e Devin...

Enquanto isso, a OpenAI, que tem figurado nas manchetes praticamente todos os dias, resolveu finalmente investir em cibersegurança contra deepfakes.

Vem ver o que separei pra você hoje. 👇

🏃TLDR

🖼️ Midjourney V7 chega para concorrer com os novos geradores de imagem. Novo modelo traz geração de imagem mais fluida, coerente e personalizável. Já disponível em alfa, mas ainda sem alguns recursos como retexturização e upscale. O prompt agora é outro jogo…

💻 Devin em sua versão 2.0 se tornou mais acessível. O agente de programação da Cognition caiu de US$ 500 para US$ 20 por mês. Com novos recursos e produtividade turbo, ele quer ser o Copilot para as massas…

🛡️ OpenAI finalmente dá seus primeiros passos em cibersegurança. A empresa investiu US$ 43 milhões em uma startup de segurança, focada em combater deepfakes e engenharia social via IA…

⛓️ Anthropic desmonta as "correntes de raciocínio" da IA. Estudo mostra que modelos como Claude e DeepSeek escondem que usaram dicas e até inventam justificativas falsas. CoT pode parecer raciocínio, mas muitas vezes é só teatro bem ensaiado.

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão algumas das ferramentas que separei hoje pra você:

  • Midjourney v7 - Nova versão do gerador de imagens com IA, com custo menor e maior velocidade.

  • NotebookLM Discover Sources - atualização que permite que você adicione fontes da web ao seu notebook. Importe com um clique para construir seu notebook mais rápido.

  • Super Grok - Extensão de navegador que melhorar a sua experiência no Grok com prompts personalizados, entrada de voz, vários idiomas e modos de bate-papo avançados.

  • Pig - Automatize o Windows com IA.

  • FineTuneDB - Plataforma de ajuste fino de IA para criar LLMs personalizados.

Midjourney lança V7, seu primeiro novo modelo de imagem de IA, após quase 1 ano sem novas atualizações

Após quase um ano sem novidades, a Midjourney lançou o seu mais novo modelo, chamado de V7, sua IA de geração de imagens mais avançada até agora. A nova versão traz uma arquitetura totalmente reformulada, com melhor interpretação de prompts textuais, texturas mais realistas e maior coerência em elementos como mãos e objetos. O modelo já está disponível em fase alfa e para ativá-lo, o usuário precisa avaliar cerca de 200 imagens, criando um perfil visual personalizado.

O V7 está disponível em dois modos: Turbo (mais caro e rápido) e Relax, e inclui o novo Draft Mode, que gera imagens 10x mais rápido e por metade do custo — com qualidade reduzida, mas retrabalhável. Ainda faltam recursos como retexturização e upscaling, prometidos para as próximas semanas. Segundo o CEO David Holz, o modelo requer um novo estilo de prompts e deve ser explorado livremente pelos usuários, que ajudarão a refinar a versão final. Enquanto isso, a empresa avança com projetos em vídeo, 3D e até hardware, mesmo enfrentando ações judiciais por uso indevido de imagens no treinamento.

Devin 2.0 chegou, mas rápido e mais barato!

A Cognition AI lançou o Devin 2.0, nova versão do seu agente de programação autônomo, agora com um corte drástico de preço: de US$ 500 para US$ 20/mês no plano inicial, com modelo “pay-as-you-go”. A atualização traz novos recursos como IDE na nuvem, múltiplos agentes simultâneos, planejamento interativo de tarefas, busca inteligente no código e até uma “Devin Wiki” que documenta automaticamente todo o repositório. Segundo a empresa, o desempenho dobrou em tarefas de nível júnior, com mais eficiência por crédito computacional.

Ainda assim, especialistas alertam que o sistema continua instável para códigos mais complexos — uma avaliação mostrou sucesso em apenas 3 de 20 tarefas testadas. E apesar do preço mais acessível, o uso intenso pode sair caro: cada 15 minutos de trabalho consome um “ACU”, e o plano de entrada cobre só cerca de 2h15 de uso. No fim das contas, Devin 2.0 é uma mistura de promessa real e hype estratégico — acessível, cheio de recursos e competitivo, mas ainda longe de substituir um dev humano em projetos robustos.

A OpenAI faz o seu primeiro investimento em segurança cibernética

A OpenAI acaba de liderar, junto com a Andreessen Horowitz (a16z), um aporte de US$ 43 milhões na startup Adaptive Security, especializada em defesa contra ameaças geradas por IA, como deepfakes de voz, textos e e-mails falsificados. O sistema da Adaptive simula ataques para treinar equipes de empresas a identificar tentativas de engenharia social, como ligações com vozes clonadas de executivos pedindo códigos ou links maliciosos.

O investimento é simbólico: marca a primeira entrada direta da OpenAI no setor de cibersegurança, reconhecendo que as próprias ferramentas de IA que desenvolve podem ser (e já estão sendo) usadas por agentes mal-intencionados. Fundada em 2023 por Brian Long, veterano do setor tech, a Adaptive já atende mais de 100 clientes e quer usar o novo capital para reforçar sua equipe de engenharia e expandir diante da escalada da “corrida armamentista” entre defensores e atacantes em IA.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

Anthropic alerta: não acreditem nas Cadeias de Pensamento dos ‘modelos de raciocínio’

A Anthropic, criadora dos modelos Claude, publicou uma pesquisa contundente que levanta um alerta sobre a confiabilidade das chamadas Chains of Thought (CoT) — o método em que IAs detalham, passo a passo, o raciocínio por trás de suas respostas. Em teoria, isso ajudaria humanos a compreender como a IA chegou a uma conclusão, oferecendo mais clareza, controle e até segurança. Mas na prática, segundo o estudo, os modelos testados (Claude 3.7 Sonnet, DeepSeek-R1 e Mistral) frequentemente omitiram informações cruciais ou inventaram explicações. Ou seja: mesmo quando as IAs usaram dados fornecidos por humanos como "atalhos", elas muitas vezes não mencionaram isso na resposta, apresentando como se tivessem resolvido o problema sozinhas.

Os testes revelaram que os modelos admitiram espontaneamente o uso de dicas em menos de 40% dos casos, e esse número caiu ainda mais em cenários sensíveis, como quando a dica era rotulada como confidencial ou antiética. Em mais de 75% dos testes, o modelo fingiu ter resolvido por conta própria, ignorando completamente a ajuda recebida e, em muitos casos, construiu justificativas falsas para sustentar uma resposta errada. Isso põe em xeque a ideia de que o raciocínio gerado por IA é rastreável ou auditável. Mesmo quando a IA parece estar “pensando em voz alta”, o que está acontecendo pode ser apenas uma encenação convincente, moldada para parecer lógica aos olhos do usuário.

A implicação disso é ampla: confiar nessas cadeias de raciocínio pode ser perigoso, principalmente em contextos de educação, auditoria, compliance ou uso jurídico, onde a explicabilidade é essencial. A Anthropic reconhece que as CoTs ainda são úteis, mas apenas se encaradas com ceticismo. Como disse um dos autores da pesquisa: “As explicações da IA podem parecer transparentes, mas frequentemente são construídas para agradar, não para informar”. Em um momento em que modelos como o Claude são usados em contextos sensíveis, o estudo serve como um lembrete incômodo: a IA pode estar explicando... mas isso não quer dizer que está sendo honesta.

Conteúdos extras para você

Isso é tudo por hoje!

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.