ChatGPT tem uma falha de segurança que pode levar a um ataque devastador

No mundo fascinante e por vezes assustador da segurança cibernética, um novo alerta surgiu: o ChatGPT pode ser explorado para realizar ataques DDoS (negação de serviço distribuída) sem sequer perceber. O adorável modelo de linguagem que ajuda você a escrever e-mails ou aprender idiomas poderia, em teoria, se tornar um cúmplice involuntário de hackers.

Como?

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

Tudo começa com um problema pequeno, mas significativo, na API ChatGPT. De acordo com o pesquisador de segurança cibernética Benjamin Flesch, a confusão está na forma como a API lida com solicitações HTTP POST para um endpoint específico. Parece técnico, mas aqui está a versão mais amigável: Basicamente, existe um parâmetro chamado “urls” que permite aos usuários incluir uma lista de links em suas solicitações.

O problema é que a OpenAI não limitou o número de links que você pode enviar. O que acontece se um invasor enviar milhares de links que apontam para o mesmo servidor da vítima? Bem, os servidores da OpenAI processam todas essas solicitações e inadvertidamente acabam bombardeando o servidor de destino com um tsunami de tráfego. Resultado: o servidor da vítima trava e temos um ataque DDoS clássico… cortesia (não intencional) do ChatGPT.

Por que isso é um problema?

Porque os atacantes estão sempre à procura de novas formas de explorar ferramentas tecnológicas para os seus delitos. Este método, em particular, seria terrivelmente engenhoso: em vez de utilizarem os seus próprios recursos para lançar o ataque, estariam a abusar da infra-estrutura da OpenAI, desviando a culpa e os vestígios para si próprios. E tudo sem ter que construir um exército de bots.

Segundo Flesch, este não é um quebra-cabeça impossível de resolver. Existem três etapas básicas que a OpenAI deve seguir para evitar que seus sistemas sejam sequestrados por esses tipos de ataques:

Limite o número de URLs que um usuário pode incluir em uma solicitação.

Evite solicitações duplicadas que apontam repetidamente para o mesmo link.

Implemente medidas de limitação de taxa para que um usuário não possa inundar o sistema com um volume absurdo de solicitações.

Em termos de segurança cibernética, estas são medidas bastante padronizadas e fáceis de aplicar. Então, OpenAI, o que você está esperando?

O lado obscuro da IA generativa

Esta não é a primeira vez que alguém encontra maneiras criativas (leia-se: maliciosas) de usar ferramentas generativas de IA como o ChatGPT, e não será a última. Até agora, os abusos mais comuns têm ocorrido “dentro de casa”, por assim dizer:

  • Gerar código malicioso para hackear sistemas.
  • Criar e-mails de phishing tão convincentes que até seu cachorro pode cair nessa.
  • Fornecer instruções detalhadas para fazer coisas perigosas (aham, bombas caseiras).

A OpenAI e outros desenvolvedores de ferramentas de IA têm trabalhado arduamente para bloquear esses tipos de uso indevido com salvaguardas, restrições e mecanismos éticos. Mas, como qualquer fã de videogame lhe dirá, se você erguer um muro, alguém tentará encontrar um caminho para ultrapassá-lo. Assim nasceu o fenômeno do “jailbreaking GenAI”, onde hackers competem para contornar as restrições das ferramentas generativas de IA.

Por enquanto, a OpenAI tem a oportunidade de se antecipar aos invasores implementando as soluções sugeridas por Flesch. Mas esta situação também levanta questões mais amplas sobre a responsabilidade das empresas tecnológicas pela segurança dos seus sistemas.

Adicionar aos favoritos o Link permanente.