Este é um texto da seção Anticuradoria: dissolvendo narrativas, domando o FOMO e desconfiando de hypes.
A Anthropic jura que a próxima versão do Claude, Mythos, pode trazer problemas sérios para a segurança digital. A empresa diz que, em testes, o LLM escapou dos ambientes de proteção da empresa, mentiu, dissimulou, chantageou e, em especial, encontrou diversas fragilidades em programas. Portanto, os pesquisadores decidiram restringir o acesso ao Mythos a apenas “parceiros confiáveis” – que a Anthropic não diz quem são.
Claro, é sempre bom desconfiar das declarações das empresas de IA, afinal, são diretamente beneficiadas tanto pelo marketing positivo quanto pelo negativo. No mínimo, como seus funcionários e diretores estão imersos no desenvolvimento dos LLMs, há sempre o risco da psicose de IA (quando alguém é enganado pela capacidade do modelo de simular comportamentos humanos).
Ainda assim, digamos que o Mythos seja realmente esse risco todo. Como seu produto poderia influenciar a segurança digital do planeta inteiro, a Anthropic (e as outras empresas de IA) precisa ser regulada por órgãos internacionais. Essas companhias devem provar ter algum senso de responsabilidade em relação ao Sul Global e outras regiões. Não que dê para confiarmos cegamente em governos, é claro. Mas alguma democracia é melhor que nenhuma.


