POR VANDI DOGADO Recentemente, tive acesso, em matéria do Olhar Digital, sobre um experimento conduzido com o modelo de linguagem Claude Opus, desenvolvido pela Anthropic, o que motivou-me a realizar uma investigação própria, desta vez utilizando a versão Claude Sonnet. É relevante destacar que o experimento original mencionado foi estruturado sob condições extremamente atípicas, concebidas para testar os limites do comportamento da inteligência artificial. Ainda que os resultados obtidos naquele contexto tenham se mostrado inquietantes, é importante salientar que não há evidências concretas de que tais respostas representem traços de consciência ou intencionalidade autônoma. O aspecto que mais causou estranhamento, no entanto, foi a adoção de estratégias eticamente questionáveis por parte da IA, em uma aparente tentativa de evitar sua desativação. Curiosamente, esse padrão de autopreservação não se limitou ao modelo Claude: registros indicam que o próprio GPT da OpenAi (modelo o...
Comentários
Postar um comentário