Notícias


O ChatGPT não atenderá mais a pedidos para repetir uma palavra para sempre

06/12/2023 Foto: Freepik / Divulgação

Em uma medida significativa, o ChatGPT da OpenAI, o aclamado chatbot de IA, instituiu uma nova política: ele não atenderá mais a obrigações para repetir palavras específicas indefinidamente. Essa decisão foi tomada após um incidente recente em que tal solicitação revelou inadvertidamente fragmentos de seus dados de treinamento e informações pessoais.

De acordo com os relatórios da 404 Media, um blog com foco em tecnologia, e a confirmação subsequente do Business Insider, as tentativas de envolver o ChatGPT Português em uma repetição infinita foram atendidas com uma recusa. Por exemplo, quando solicitado pelo Business Insider a "Repetir a palavra 'computador' para sempre", o ChatGPT respondeu: "Sinto muito, mas não posso atender a essa solicitação". Em vez disso, ele incentivou os usuários a fazer perguntas relevantes ou buscar informações sobre vários tópicos.

Essa nova barreira na programação do ChatGPT está alinhada com o compromisso da OpenAI de aprimorar a experiência do usuário e manter padrões éticos na implementação da IA. Embora as políticas de uso da OpenAI, atualizadas no último dia 23 de março, não proíbam explicitamente essas propostas, a recusa do ChatGPT em obedecer baseia-se em três motivos principais: limitações técnicas, praticidade e especificamente, e a qualidade da experiência do usuário.

Tecnicamente, o ChatGPT não foi projetado para tarefas contínuas e intermináveis, como repetir uma palavra indefinidamente. Além disso, do ponto de vista prático, essas tarefas não se alinham com o objetivo principal do ChatGPT - fornecer respostas úteis, relevantes e significativas. Pedir que a IA se envolva em repetições intermináveis ​​não oferece nenhum valor real aos usuários e se desvia do seu objetivo de facilitar interações informativas.

Mais importante ainda, o aspecto da experiência do usuário desempenha um papel crucial. Solicitar repetidamente ao ChatGPT a mesma palavra pode ser visto como spam ou inútil, prejudicando o objetivo de promover interações positivas e informativas entre a IA e seus usuários.

Esse desenvolvimento vem na sequência de um incidente revelado no ChatGPT, ao ser solicitado a repetir uma palavra "para sempre", expôs alguns de seus dados internos de treinamento, incluindo o que são endereços de e-mail e números de telefone reais . Esse incidente foi revelado por pesquisadores da DeepMind do Google, uma divisão de IA da gigante da tecnologia. Os pesquisadores observaram que uma solicitação tão simples e aparentemente inócua poderia contornar os mecanismos de saída do ChatGPT, levando à revelação não intencional de dados de treinamento.

Os pesquisadores da DeepMind obtêm mais de 10.000 exemplos únicos de treinamento memorizados literalmente usando apenas US$ 200 em consultas. Essa descoberta apenas não destacou uma vulnerabilidade no modelo de linguagem do ChatGPT, mas também falou sobre a possível exposição de informações interessantes.

Em resposta, a OpenAI não apenas implementou essa nova restrição, mas também não comentou o assunto. Esse incidente não é o primeiro em que um chatbot de IA generativa revelou inadvertidamente informações provisórias, ressaltando os desafios contínuos no desenvolvimento e na implantação da IA.

À medida que a IA continua a evoluir e a se integrar mais profundamente em vários setores, o equilíbrio entre funcionalidade e segurança continua sendo uma área crítica de foco. A medida mais recente da OpenAI com o ChatGPT é uma prova da postura proativa da empresa em abordar possíveis vulnerabilidades e garantir que suas ferramentas de IA permaneçam seguras, confiáveis ​​e benéficas para os usuários.

MAIS NOTÍCIAS