Prompt escrito pelo Claude, baseado nesta matéria do The Guardian:
1. Um jornalista freelancer usou IA para editar uma resenha de livro e, sem perceber, o texto final incorporou trechos de outra resenha publicada no Guardian. O NYT demitiu o cara. Pergunta: se a IA tivesse gerado um texto original — sem copiar ninguém — mas o jornalista ainda assim tivesse assinado como se fosse dele, o problema seria o mesmo? Onde exatamente está a linha: no plágio ou na terceirização do pensamento?
Vamos pensar juntos: a indústria do entretenimento jornalístico adora padrões, conhecidos como “formatos”. Fora que existem manuais de redação, práticas de engajamento, técnicas de SEO e prazos apertadíssimos de entrega. Geralmente, o texto fica tão engessado que é um “plágio em potencial” ou “plágio técnico.” É quase uma cópia, mas ninguém percebeu.
Já a terceirização do pensamento é, realmente, um problema. Hoje em dia. Quer dizer, nesse Iluminismo diluído e estrutural, que internalizou as práticas, aspirações e hábitos da Modernidade e não pensa sobre isso, nem se lembra de que havia algo antes. Em outras épocas, a originalidade é que seria punida. O escritor seria difamado se publicasse algo considerado novo, sem fundamentação em escrituras antigas.
Então, onde está a linha? No consumo e na produção industrial de informação para fins de entretenimento. Isso induz ao plágio em potencial. E também ao slop, ao clickbait, à polarização, à gamificação, ao extremismo pop, ao red pill, à desinformação e muito mais.
O NYT deve ter despedido o jornalista para evitar ataques à marca vindos das redes sociais. Não estou defendendo o plagiador, mas tentando partir de um ponto de vista mais amplo.
Coloque-se no lugar dele, antes e depois do ocorrido. Buscando conveniência, causou o próprio sofrimento. Na verdade, não entendia o risco dos chatbots, caiu no hype e na narrativa da indústria de tecnologia.
Cuidado: algo parecido com isso pode acontecer com qualquer um de nós. Afinal, buscamos tantos atalhos que já estamos perdendo a noção do destino.
De qualquer forma, o redator apenas adiantou uma demissão que iria acontecer cedo ou tarde. Há certos tipos de texto (reviews genéricas, serviços) que já começam a ser delegados à IA.
2. O Alex Preston disse que usou uma “ferramenta de IA para editar um rascunho que ele mesmo havia escrito”. Ou seja: o texto era dele, a IA só deu um polimento. Mas esse polimento trouxe linguagem de outro crítico sem que ele percebesse. Imagine que você é um jornalista que usa IA para revisar seus textos. Como você saberia distinguir o que é seu do que a máquina inseriu? E, se não consegue distinguir, o texto ainda é seu?
Eu não saberia. Por isso, só aceito polimento nos meus sapatos.
Naturalmente, o LLM deveria “assinar” o texto em conjunto. Mas, como LLMs usam o treinamento (muitas vezes involuntário) de muitos humanos, na verdade estamos fazendo o que chamo de suruba cognitiva. Todo mundo suando no cangote alheio.
O problema é tentar enganar o leitor e a si mesmo. O resto são dores da Modernidade. Não se pode ter a ideia de “autor” sem as doenças da autoria (vaidade, frustração, plágio, fraude, síndrome de impostor, disputas por capital cultural, etc.).
3. Formule uma política de uso de IA para uma redação hipotética que reconheça os limites do que pode e do que não pode ser delegado a uma máquina, sem fingir que ninguém na redação usa IA.
Ok. Lá vai.
Do lado da redação, assinar os artigos em conjunto. Ser transparente.
Do lado das LLMs, sempre citar as fontes, com links (como o Perplexity e o NotebookLM já fazem).
Mas, quer saber? Também deveria haver avisos como “esse texto foi adaptado aos padrões de SEO e de engajamento” (feito para máquinas e para explorar fragilidades da mente). Certos veículos já publicam disclaimers, avisando sobre potenciais conflitos ou alinhamentos de interesses. É preciso ser ainda mais detalhado.
Você gostaria que eu elaborasse um Manual de Redação para redações híbridas (LLM + humanos)?

