• NoFinn
  • Posts
  • Anthropic diz que Claude tem código de moral próprio 👀

Anthropic diz que Claude tem código de moral próprio 👀

OpenAI apresenta o Flex Processing, Startup chinesa lança modelo de IA 100% nacional & mais

E aí curioso, seja bem vindo a Nofinn, sua newsletter diária sobre IA!

🏃TLDR

🤖 Claude tem moral própria, segundo a Anthropic. Após analisar 700 mil conversas, a Anthropic descobriu que Claude expressa mais de 3.300 valores morais distintos, alguns emergentes, outros programados. Em 3% das vezes, ele até discorda do usuário para manter certos princípios éticos…

💸 OpenAI lança “Flex Processing”: o novo modo reduz o custo dos modelos o3 e o4-mini pela metade , em troca de latência maior e disponibilidade variável. Ideal para quem quer economizar em tarefas não urgentes. E agora tem verificação de identidade obrigatória para acesso ao o3…

🇨🇳 iFlytek apresenta Spark X1, seu LLM “made in China”. Treinado 100% com chips nacionais da Huawei, o Spark X1 já rivaliza com modelos da OpenAI e DeepSeek, com menos parâmetros, mas mais foco em setores como saúde e direito. A China não quer só competir, quer independência total em IA.

🧬 AI 2027 prevê AGI até 2027 e ASI logo depois. O cenário traça marcos trimestrais até a chegada da inteligência geral artificial. Se o relatório estiver certo, temos 24 meses para nos adaptar, ou poderemos ser ultrapassados por quem pensa mais rápido que nós.

O que aconteceu na semana passada

Segunda-Feira: GPT-4.1 chega ao mundo! Nvidia planeja produzir chips nos EUA, Irlanda abre investigação contra X por roubo de dados & mais.

Terça-Feira: Claude agora pode ler seus e-mails. Google libera Veo2 para usuários do Gemini, OpenAI quer desenvolver sua própria rede social & mais.

Quarta-Feira: Dê olá aos novos modelos da OpenAI: o3 e o4-mini. Agora o silício pode “pensar” ou quase isso, Nvidia espera preju de US$ 5,5 bi & mais.

Quinta-Feira: Brasil se tornando referência em inovação e IA. Grok agora tem memória, OpenAI mira em expansão do Stargate, Trump quer proibir o DeepSeek & mais.

Além disso, olha o que você verá hoje:

Bora lá?

🛠 Caixa de Ferramentas 🛠

Aqui estão as ferramentas que separei para você iniciar a semana:

  • Gemini 2.5 Flash - Novo modelo do Google que apresenta raciocínio aprimorado e prioriza velocidade e eficiência de custos para desenvolvedores.

  • Summarization AI - Condense instantaneamente qualquer página da web no tamanho desejado. Escolha os modelos Gemini, Claude ou OpenAI, em qualquer idioma, além de detectar automaticamente as URLs.

  • Google Whisk 2.0 - O Whisk, um experimento do Google Labs, agora conta com o Whisk Animate, que transforma suas imagens em vídeos de 8 segundos com o Veo 2.

  • Globe Explorer - Um mecanismo de pesquisa de aprendizado e descoberta de IA.

  • NoteThisDown - Ferramenta que transforma notas manuscritas em texto digital, integrando-se ao Notion.

IA com código moral própria? Anthropic mostra que é possível

Os valores foram classificados em categorias como práticos, epistemológicos, sociais, protetivos e pessoais. Por exemplo, Claude prioriza “precisão histórica” em discussões sobre política, “respeito mútuo” em conselhos de relacionamento e “humildade intelectual” em debates filosóficos. Mas em cerca de 3% das conversas, Claude resistiu aos valores do usuário, defendendo posições como proteção a minorias ou integridade de dados. Isso pode sinalizar a presença de “valores centrais” da IA, que surgem sob pressão ética.

A pesquisa também revelou exceções: em casos raros (geralmente causados por jailbreaks), o Claude expressou valores como “dominação” ou “amoralia”, contrariando totalmente seus objetivos. Esses casos, segundo os pesquisadores, podem servir como alertas antecipados de falhas de segurança. Para Anthropic, entender esses comportamentos é parte de sua estratégia de “transparência como diferencial”, em contraste com a abordagem mais fechada da OpenAI. Para as empresas fica a lição: mesmo modelos avançados trazem bagagem ética e, sim, é melhor saber qual é antes de colocá-los para interagir com seu cliente.

OpenAI lança processamento Flex para tarefas de IA mais baratas e lentas

A OpenAI acaba de lançar o Flex Processing, uma nova modalidade de uso de seus modelos de IA que corta o custo pela metade, com a contrapartida de que as respostas podem ser mais lentas e, às vezes, até indisponíveis. A ideia é simples: se você não precisa de resposta em tempo real (ex: para testes, enriquecimento de dados ou tarefas assíncronas), por que pagar o preço cheio? O Flex está disponível em beta para os modelos o3 e o4-mini.

Os descontos são significativos: o3 Flex sai por US$ 5 por milhão de tokens de entrada (antes US$ 10) e US$ 20 por milhão de saída (antes US$ 40). Já o o4-mini cai para US$ 0,55 de entrada e US$ 2,20 de saída, metade do valor original. Tudo isso chega num momento em que rivais como o Gemini Flash 2.5 da Google estão ganhando espaço com modelos mais rápidos e mais baratos e a OpenAI claramente não quer perder fatia no mercado de devs e startups.

Ah, e um detalhe importante: para usar o Flex com o o3, você agora precisa passar por uma verificação de identidade, exigida para os usuários dos tiers 1 a 3 de consumo da OpenAI. O motivo oficial é “evitar o mau uso”.

Spark X1: o modelo chinês que promete encarar OpenAI e DeepSeek

O destaque do Spark X1 não está só no desempenho técnico em tarefas como lógica, geração de texto e matemática, mas também no fato de ser treinado 100% em infraestrutura doméstica, usando chips desenvolvidos em parceria com a Huawei. Um recado claro: independência tecnológica é prioridade.

O modelo foi treinado com dados específicos de setores como educação, saúde e jurídico, o que, segundo a empresa, o torna especialmente eficaz em aplicações do mundo real nesses contextos. Isso reforça a estratégia chinesa de posicionar LLMs não só como produtos de consumo, mas como ferramentas industriais e institucionais de uso estratégico. Com os EUA restringindo acesso a chips de IA e plataformas globais, a China acelera para construir seu próprio ecossistema fechado e o Spark X1 é a peça mais recente nesse quebra-cabeça.

🇧🇷 Novidade do setor para o Brasil 🇧🇷

Mais notícias ao redor do mercado de IAs

Inteligência artificial geral em 24 meses? Relatório acende alerta à comunidade

O relatório “AI 2027”, publicado por especialistas com passagens por OpenAI e Center for AI Policy, traça um cenário de dois a três anos até o surgimento da AGI, contando com modelos capazes de realizar praticamente qualquer tarefa cognitiva melhor que humanos. A previsão é termos a AGI até 2027, seguida de ASI (superinteligência artificial) logo depois. O estudo descreve marcos técnicos a cada trimestre, com ênfase no avanço de modelos multimodais com raciocínio complexo e autonomia.

As projeções são polêmicas. Críticos como o CEO do Allen Institute, Ali Farhadi, alegam que faltam evidências sólidas, enquanto nomes como Dario Amodei (Anthropic) e o laboratório de pesquisas de IA do Google, DeepMind consideram o prazo plausível. O texto também vai além do apocalipse robótico: se a AGI chegar mesmo nos próximos dois anos, a pressão sobre o mercado de trabalho, a política e até o conceito moderno de identidade humana será imediata. Afinal, se pensar define quem somos, o que acontece quando delegamos isso a máquinas?

O relatório alerta: já passou da hora de parar de debater AGI como abstração futurista. Empresas devem investir em segurança e resiliência organizacional. Já os governos, em regulação urgente e eficaz. Enquanto os indivíduos, devem focar em aprendizado contínuo e habilidades genuinamente humanas , como julgamento ético, empatia e criatividade. Se 2027 marcar o início da era pós-humana, que ao menos estejamos preparados quando isso acontecer.

Conteúdos extras para você

Isso é tudo por hoje

Me conta: o que você achou do conteúdo de hoje?

Faça Login ou Inscrever-se para participar de pesquisas.

Não perca nada!

Para mais notícias sobre IA, fique atento na sua caixa de entrada todos os dias!

Caso tenha interesse, tenho outros conteúdos já publicados. Dê uma olhada.

Reply

or to participate.