De acordo com a informação divulgada, o Claude vai passar a ter a capacidade de terminar conversas, quando identificar pedidos abusivos feitos pelos utilizadores à ferramenta de IA.
Entre as informações consideradas abusivas estão "pedidos de utilizadores relacionados com conteúdo sexual que envolva menores ou tentativas de solicitar informações que possibilitem violência em grande escala ou atos de terrorismo".
A empresa refere que funcionalidade está limitada a situações muito concretas, pelo que será ativada apenas em "casos raros e extremos de interações persistentemente prejudiciais ou abusivas por parte dos utilizadores".
Neste sentido, o fim de uma interação será ativado como um "último recurso quando várias tentativas de redirecionamento falharem e a esperança de uma interação produtiva se esgotar", explica a Anthropic.
Quando o fim de uma conversa for desencadeado por este tipo de situações, o utilizador fica privado de enviar novas mensagens nessa interação, mantendo apenas a possibilidade de editar mensagens anteriores e alterar o rumo do diálogo.
A Anthropic é uma 'startup' americana de IA, especializada no desenvolvimento de sistemas de IA e modelos de linguagem, responsável pelo desenvolvimento do 'chatbot' Claude.
Leia Também: Aplicação do ChatGPT já gerou mais de 2 mil milhões de dólares