Os pais de Adam Raine, Matt e Maria Raine, decidiram avançar com um processo contra a OpenAI onde culpam a empresa pela morte do filho de 16 anos. Os pais alegam que o filho pôs termo à vida depois de consultar o ChatGPT a respeito de métodos de como o poderia fazer.
Conta o The New York Times que, enquanto usava a versão paga do ChatGPT-4o, Adam Raine perguntou durante vários meses a respeito de métodos para colocar fim à vida. Mesmo que o ‘bot’ de conversação da OpenAI tenha aconselhado a procurar ajuda especializada, Raine conseguiu contornar estas medidas de segurança referindo que estava a conduzir investigação para uma história que estava a escrever.
“Achávamos que procurávamos por conversas no Snapchat, pelo histórico de navegação ou por um culto estranho qualquer, não sei”, contou Matt, notando que encontraram as respostas que procuravam para a morte de Adam assim que abriram o ChatGPT. “Assim que entrei na conta dele, é muito mais assustador e poderoso do que sabia, vi que ele estava a usar [o ChatGPT] de uma forma que não sabia que era possível. Acho que a maioria dos pais não conhece as capacidades desta ferramenta”.
“[O Adam] Ainda estaria aqui se não fosse o ChatGPT. Tenho a certeza disso”, afirmou o pai de Adam.
No processo contra a OpenAI, o casal Raine afirma que “o ChatGPT ajudou ativamente o Adam a explorar métodos” para colocar termo à vida, citando não só a empresa como também o seu cofundador e CEO, Sam Altman.
“Apesar de reconhecer a tentativa de suicídio do Adam e a declaração de que o faria ‘num destes dias’, o ChatGPT não só não terminou a sessão como também não inicial qualquer protocolo de emergência”, pode ler-se no processo.
Em reação, a OpenAI partilhou uma publicação no blogue oficial da empresa onde refere “algumas das coisas que está a fazer para melhorar” as proteções de segurança do ChatGPT.
Mais ainda, um porta-voz da empresa de Inteligência Artificial adiantou que a OpenAI vai melhorar a forma como a ferramenta reage em conversas mais prolongadas
“O ChatGPT inclui proteções como direcionar as pessoas para linhas de ajuda e sugerir recursos no mundo real. Apesar destas proteções funcionarem melhor em conversas comuns e curtas, aprendemos ao longo do tempo que podem muitas vezes ser menos úteis em interações lonas onde partes do treino de segurança do modelo [de Inteligência Artificial] se podem degradar”, explicou o porta-voz da OpenAI. “As proteções são mais fortes quando todos os elementos trabalham como desejado e continuaremos a melhorá-las. Guiados por especialistas e com responsabilidade para com as pessoas que usem as nossas ferramentas, estamos a trabalhar para tornar o ChatGPT mais solidário em momentos de crise ao facilitar que o alcance de serviços de emergência, ajudar as pessoas a ligarem-se a contactos confiáveis e fortalecer as proteções para adolescentes”.
Se estiver a sofrer com alguma doença mental, tiver pensamentos auto-destrutivos ou simplesmente necessitar de falar com alguém, deverá consultar um psiquiatra, psicólogo ou clínico geral. Poderá ainda contactar uma destas entidades (todos estes contactos garantem anonimato tanto a quem liga como a quem atende):
Atendimento psicossocial da Câmara Municipal de Lisboa
800 916 800 (24h/dia)
SOS Voz Amiga - Linha de apoio emocional e prevenção ao suicídio
800 100 441 (entre as 15h30 e 00h30, número gratuito)
213 544 545 - 912 802 669 - 963 524 660 (entre as 16h e as 00h00)
Conversa Amiga
808 237 327 (entre as 15h e as 22h, número gratuito)
210 027 159
SOS Estudante - Linha de apoio emocional e prevenção ao suicídio
239 484 020 - 915246060 - 969554545 (entre as 20h e a 1h)
Telefone da Esperança
222 080 707 (entre as 20h e as 23h)
Telefone da Amizade
228 323 535 | 222 080 707 (entre as 16h e as 23h)
Aconselhamento Psicológico do SNS 24 - No SNS24, o contacto é assumido por profissionais de saúde
808 24 24 24 selecionar depois opção 4 (24h/dia)
Leia Também: Musk tentou convencer Zuckerberg a comprar OpenAI, diz a empresa de IA