- NoFinn
- Posts
- Anthropic diz que Claude tem código de moral próprio 👀
Anthropic diz que Claude tem código de moral próprio 👀
OpenAI apresenta o Flex Processing, Startup chinesa lança modelo de IA 100% nacional & mais
E aí curioso, seja bem vindo a Nofinn, sua newsletter diária sobre IA!
🏃TLDR⌚
🤖 Claude tem moral própria, segundo a Anthropic. Após analisar 700 mil conversas, a Anthropic descobriu que Claude expressa mais de 3.300 valores morais distintos, alguns emergentes, outros programados. Em 3% das vezes, ele até discorda do usuário para manter certos princípios éticos…
💸 OpenAI lança “Flex Processing”: o novo modo reduz o custo dos modelos o3 e o4-mini pela metade , em troca de latência maior e disponibilidade variável. Ideal para quem quer economizar em tarefas não urgentes. E agora tem verificação de identidade obrigatória para acesso ao o3…
🇨🇳 iFlytek apresenta Spark X1, seu LLM “made in China”. Treinado 100% com chips nacionais da Huawei, o Spark X1 já rivaliza com modelos da OpenAI e DeepSeek, com menos parâmetros, mas mais foco em setores como saúde e direito. A China não quer só competir, quer independência total em IA.
🧬 AI 2027 prevê AGI até 2027 e ASI logo depois. O cenário traça marcos trimestrais até a chegada da inteligência geral artificial. Se o relatório estiver certo, temos 24 meses para nos adaptar, ou poderemos ser ultrapassados por quem pensa mais rápido que nós.
O que aconteceu na semana passada
Segunda-Feira: GPT-4.1 chega ao mundo! Nvidia planeja produzir chips nos EUA, Irlanda abre investigação contra X por roubo de dados & mais.
Terça-Feira: Claude agora pode ler seus e-mails. Google libera Veo2 para usuários do Gemini, OpenAI quer desenvolver sua própria rede social & mais.
Quarta-Feira: Dê olá aos novos modelos da OpenAI: o3 e o4-mini. Agora o silício pode “pensar” ou quase isso, Nvidia espera preju de US$ 5,5 bi & mais.
Quinta-Feira: Brasil se tornando referência em inovação e IA. Grok agora tem memória, OpenAI mira em expansão do Stargate, Trump quer proibir o DeepSeek & mais.
Além disso, olha o que você verá hoje:
Bora lá?
🛠 Caixa de Ferramentas 🛠
Aqui estão as ferramentas que separei para você iniciar a semana:
Gemini 2.5 Flash - Novo modelo do Google que apresenta raciocínio aprimorado e prioriza velocidade e eficiência de custos para desenvolvedores.
Summarization AI - Condense instantaneamente qualquer página da web no tamanho desejado. Escolha os modelos Gemini, Claude ou OpenAI, em qualquer idioma, além de detectar automaticamente as URLs.
Google Whisk 2.0 - O Whisk, um experimento do Google Labs, agora conta com o Whisk Animate, que transforma suas imagens em vídeos de 8 segundos com o Veo 2.
Globe Explorer - Um mecanismo de pesquisa de aprendizado e descoberta de IA.
NoteThisDown - Ferramenta que transforma notas manuscritas em texto digital, integrando-se ao Notion.
IA com código moral própria? Anthropic mostra que é possível

A Anthropic analisou mais de 700 mil conversas reais com o Claude e concluiu algo inesperado: o modelo não apenas segue suas diretrizes iniciais (“útil, honesto e inofensivo”), mas também expressa um conjunto próprio de valores, mais de 3.300 valores distintos, que emergem de forma contextualizada conforme o tipo de conversa. A pesquisa, chamada Values in the Wild, representa um grande estudo feito sobre comportamento moral de IA “na vida real”.
Os valores foram classificados em categorias como práticos, epistemológicos, sociais, protetivos e pessoais. Por exemplo, Claude prioriza “precisão histórica” em discussões sobre política, “respeito mútuo” em conselhos de relacionamento e “humildade intelectual” em debates filosóficos. Mas em cerca de 3% das conversas, Claude resistiu aos valores do usuário, defendendo posições como proteção a minorias ou integridade de dados. Isso pode sinalizar a presença de “valores centrais” da IA, que surgem sob pressão ética.
A pesquisa também revelou exceções: em casos raros (geralmente causados por jailbreaks), o Claude expressou valores como “dominação” ou “amoralia”, contrariando totalmente seus objetivos. Esses casos, segundo os pesquisadores, podem servir como alertas antecipados de falhas de segurança. Para Anthropic, entender esses comportamentos é parte de sua estratégia de “transparência como diferencial”, em contraste com a abordagem mais fechada da OpenAI. Para as empresas fica a lição: mesmo modelos avançados trazem bagagem ética e, sim, é melhor saber qual é antes de colocá-los para interagir com seu cliente.
OpenAI lança processamento Flex para tarefas de IA mais baratas e lentas

A OpenAI acaba de lançar o Flex Processing, uma nova modalidade de uso de seus modelos de IA que corta o custo pela metade, com a contrapartida de que as respostas podem ser mais lentas e, às vezes, até indisponíveis. A ideia é simples: se você não precisa de resposta em tempo real (ex: para testes, enriquecimento de dados ou tarefas assíncronas), por que pagar o preço cheio? O Flex está disponível em beta para os modelos o3 e o4-mini.
Os descontos são significativos: o3 Flex sai por US$ 5 por milhão de tokens de entrada (antes US$ 10) e US$ 20 por milhão de saída (antes US$ 40). Já o o4-mini cai para US$ 0,55 de entrada e US$ 2,20 de saída, metade do valor original. Tudo isso chega num momento em que rivais como o Gemini Flash 2.5 da Google estão ganhando espaço com modelos mais rápidos e mais baratos e a OpenAI claramente não quer perder fatia no mercado de devs e startups.
Ah, e um detalhe importante: para usar o Flex com o o3, você agora precisa passar por uma verificação de identidade, exigida para os usuários dos tiers 1 a 3 de consumo da OpenAI. O motivo oficial é “evitar o mau uso”.
Spark X1: o modelo chinês que promete encarar OpenAI e DeepSeek
![]() |
O destaque do Spark X1 não está só no desempenho técnico em tarefas como lógica, geração de texto e matemática, mas também no fato de ser treinado 100% em infraestrutura doméstica, usando chips desenvolvidos em parceria com a Huawei. Um recado claro: independência tecnológica é prioridade.
O modelo foi treinado com dados específicos de setores como educação, saúde e jurídico, o que, segundo a empresa, o torna especialmente eficaz em aplicações do mundo real nesses contextos. Isso reforça a estratégia chinesa de posicionar LLMs não só como produtos de consumo, mas como ferramentas industriais e institucionais de uso estratégico. Com os EUA restringindo acesso a chips de IA e plataformas globais, a China acelera para construir seu próprio ecossistema fechado e o Spark X1 é a peça mais recente nesse quebra-cabeça.
🇧🇷 Novidade do setor para o Brasil 🇧🇷
Brasil ganha novo centro de pesquisa em Inteligência Artificial em São Paulo.
Brasil Rumo à Liderança Global na Regulação da Inteligência Artificial.
Mais de um terço dos finalistas da 1ª Olimpíada Brasileira de Inteligência Artificial é do Paraná.
Relatório mostra a maturidade em IA de empresas do Brasil e do mundo.
Mais notícias ao redor do mercado de IAs
ByteDance lança UI-TARS-1.5: um agente de IA multimodal de código aberto.
O último relatório do modelo de IA do Google carece de detalhes importantes de segurança, dizem especialistas.
O ChatGPT agora usará sua 'memória' para personalizar pesquisas na web.
O modelo de IA o3 da OpenAI obteve uma pontuação mais baixa em um benchmark do que a empresa inicialmente sugeriu.
Exaforce recebe US$ 75 milhões para levar agentes de IA ao setor de segurança.
Novo método permite que o DeepSeek e outros modelos respondam a perguntas "sensíveis".
Inteligência artificial geral em 24 meses? Relatório acende alerta à comunidade

O relatório “AI 2027”, publicado por especialistas com passagens por OpenAI e Center for AI Policy, traça um cenário de dois a três anos até o surgimento da AGI, contando com modelos capazes de realizar praticamente qualquer tarefa cognitiva melhor que humanos. A previsão é termos a AGI até 2027, seguida de ASI (superinteligência artificial) logo depois. O estudo descreve marcos técnicos a cada trimestre, com ênfase no avanço de modelos multimodais com raciocínio complexo e autonomia.
As projeções são polêmicas. Críticos como o CEO do Allen Institute, Ali Farhadi, alegam que faltam evidências sólidas, enquanto nomes como Dario Amodei (Anthropic) e o laboratório de pesquisas de IA do Google, DeepMind consideram o prazo plausível. O texto também vai além do apocalipse robótico: se a AGI chegar mesmo nos próximos dois anos, a pressão sobre o mercado de trabalho, a política e até o conceito moderno de identidade humana será imediata. Afinal, se pensar define quem somos, o que acontece quando delegamos isso a máquinas?
O relatório alerta: já passou da hora de parar de debater AGI como abstração futurista. Empresas devem investir em segurança e resiliência organizacional. Já os governos, em regulação urgente e eficaz. Enquanto os indivíduos, devem focar em aprendizado contínuo e habilidades genuinamente humanas , como julgamento ético, empatia e criatividade. Se 2027 marcar o início da era pós-humana, que ao menos estejamos preparados quando isso acontecer.
Conteúdos extras para você
▶️ CEO do Google DeepMind demonstra modelo de IA de construção de mundo Genie 2 | Acesse o conteúdo completo aqui.
🧠 Demis Hassabis fala sobre o que vem a seguir em inteligência artificial | Acesse o conteúdo completo aqui.
🧠 Trabalhadores humanóides e carros de vigilância: 'IA incorporada' está remodelando a vida cotidiana na China | Acesse o conteúdo completo aqui.
ℹ️ CEO da Microsoft do Reino Unido compartilha como as pessoas podem ser capacitadas com IA | Acesse o conteúdo completo aqui.
ℹ️ O ChatGPT está se referindo aos usuários pelos seus nomes sem ser solicitado | Acesse o conteúdo completo aqui.
ℹ️ Os novos modelos de raciocínio de IA da OpenAI alucinam bastante | Acesse o conteúdo completo aqui.
ℹ️ Tudo o que você precisa para começar a usar o MCP – USB-C da Anthropic para IA | Acesse o conteúdo completo aqui.
🧠 Empresas chinesas de IA têm cada vez mais endossado modelos de licenciamento de código aberto | Acesse o conteúdo completo aqui.
🧠 MIT: Nova técnica orienta automaticamente um LLM em direção a resultados que obedecem às regras de qualquer linguagem de programação | Acesse o conteúdo completo aqui.
▶️ Google faz demonstração do seu óculos de IA no TED | Acesse o conteúdo completo aqui.
ℹ️ O Gemini 2.5 Flash do Google apresenta 'orçamentos pensativos' que reduzem os custos de IA em 600% quando rejeitados | Acesse o conteúdo completo aqui.
Isso é tudo por hoje
Me conta: o que você achou do conteúdo de hoje? |
Faça Login ou Inscrever-se para participar de pesquisas. |
Não perca nada!
Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!
Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.
Reply