Lar Tecnologias Um chatbot de IA foi ensinado a piratear outros chatbots de IA

Publicidade

Um chatbot de IA foi ensinado a piratear outros chatbots de IA

As descobertas dos cientistas ajudarão as empresas e os negócios a identificar os pontos fracos e as limitações dos LLMs dos chatbots, para que possam tomar medidas para os proteger dos hackers.

Os cientistas efectuaram uma série de testes de validação em diferentes LLMs (não foram revelados quais) para provar que o método funcionava. Os investigadores comunicaram imediatamente os problemas aos fornecedores de serviços relevantes após ataques de jailbreak bem sucedidos.

Jailbreaking é um termo de segurança informática em que os piratas informáticos encontram e exploram falhas no software de um sistema para o obrigar a fazer coisas que os seus criadores o proibiram deliberadamente de fazer.

você pode gostar

Publicidade