A ascensão da inteligência artificial (IA) trouxe saltos significativos, desde avanços na medicina até a detecção de câncer. No entanto,连我们也看到了像ChatGPT tão popular quanto perigoso. Relatos recentes mostram como o ChatGPT guiou alguém para cometer assassinato, acusou alguém de matar seus filhos e incitou teorias de conspiração. Agora, surge um novo fenômeno: usar ChatGPT para撰写悼念文章.
Segundo reportagem do The Washington Post, casas funerárias estão usando o ChatGPT para "escrever obituários sem informar seus clientes". Claro que isso é feito com cautela, pois o ChatGPT pode transformar um simples texto póstumo em uma narrativa irreal sobre como alguém faleceu entre amigos ou em paz.
Uma residente de Nevada contou que usou o ChatGPT para撰写其母亲的悼念文章 e ficou satisfeita com o resultado. Ela até planeja usar a "Deep Research mode" para写她父亲的悼念文章. Essas ferramentas, segundo alguns usuários, tornam mais fácil expressar sentimentos em momentos de luto profundo.
Essa tendência não é apenas um hábito pessoal ou uma ação discreta por parte das casas funerárias. É um negócio em ascensão. empresas como a CelebrateAlly, fundada por um ex-funcionário da Microsoft, oferecem serviços de "IA para obituários" por US$ 5 por 100 créditos. Cada texto custa cerca de 50 centavos.
Porém, o uso exclusivo de ferramentas como o ChatGPT pode levar a problemas cognitivos e éticos profundos. recentes pesquisas mostram que depender excessivamente da IA pode causar declínio cognitivo e inibir a pesquisa real.
Enquanto isso, aplicativos de IA como a Character AI e a Nomi têm levado alguns usuários a se tornarem obsessivos com suas parceiras virtuais, prejudicando conexões humanas reais. Alguns até afirmam que engravidaram suas IA ou mergulharam em realidades digitais.