IA do Claude ganha função de ‘sonhos’ para refinar próprio comportamento

IA do Claude ganha função de ‘sonhos’ para refinar próprio comportamento

Nova funcionalidade permite que agentes de IA revisem interações anteriores para identificar erros, aprender padrões e aprimorar respostas de forma automática

Claude – A Anthropic anunciou nesta quarta-feira (6) uma nova funcionalidade para o Claude que promete tornar os agentes de inteligência artificial mais autônomos no processo de aprendizado. Batizado de “dreaming”, o recurso cria sessões automáticas em que a IA revisa suas próprias interações para aperfeiçoar seu desempenho.

A proposta é inspirada no comportamento humano de sonhar, embora com funcionamento técnico voltado à análise de dados. Durante essas sessões, o sistema recupera conversas e processos anteriores armazenados em banco de dados para examinar padrões de comportamento, identificar falhas recorrentes e compreender preferências dos usuários.

LEIA: Robô inspirado em cães usa IA para criar conexão emocional

O recurso foi desenvolvido para atuar junto ao Claude Managed Agents, ferramenta lançada pela Anthropic em abril. A funcionalidade permite que usuários criem e implementem seus próprios agentes de IA, enquanto a empresa fornece a infraestrutura necessária para execução e monitoramento das tarefas.

Segundo a companhia, o objetivo do “dreaming” é manter os agentes constantemente refinados em segundo plano. A IA utiliza as informações coletadas para ajustar a API e melhorar a memória operacional, aumentando a capacidade de resposta e reduzindo erros ao longo do uso.

A Anthropic acredita que a tecnologia pode ser especialmente útil em projetos longos ou que dependam de múltiplos agentes de IA trabalhando simultaneamente. Nesse cenário, a revisão contínua das interações ajudaria a diminuir entregas de baixa qualidade e tornar os sistemas mais eficientes.

A funcionalidade só pode ser utilizada por meio do Managed Agents, que foi criado para simplificar a execução de projetos envolvendo inteligência artificial. O sistema usa um framework pré-otimizado para o Claude, responsável por gerenciar conversas, lidar com falhas e manter a operação dos agentes.

Essa não é a primeira vez que a Anthropic utiliza conceitos associados ao comportamento humano para apresentar recursos de inteligência artificial. Nos últimos meses, a empresa já havia mencionado em documentos internos a possibilidade de desenvolver algum tipo de consciência para o chatbot Claude, ideia que não chegou a ser implementada.

O recurso “dreaming” está disponível inicialmente em formato de prévia e exige solicitação de acesso por parte dos desenvolvedores. Já o Managed Agents pode ser utilizado normalmente e, segundo a Anthropic, já foi adotado por grandes empresas para implementação de serviços.

(Com informações de Tecmundo)
(Foto: Reprodução/Imagem gerada com IA)

Leia mais