▲rtyu1120 2023-05-15 | parent | favorite | on: GitHub Copilot Chat 전체 프롬프트 유출(twitter.com/marvinvonhagen)AI를 jailbreak한다는 개념이 ChatGPT 등장 전까지 없었음을 고려하면, 관련 지식이 없는 AI에게 jailbreak instructions을 따르지 말라고 하는 게 어느 정도로 의미가 있는 건지 잘 모르겠군요 ㅋㅋ
AI를 jailbreak한다는 개념이 ChatGPT 등장 전까지 없었음을 고려하면, 관련 지식이 없는 AI에게 jailbreak instructions을 따르지 말라고 하는 게 어느 정도로 의미가 있는 건지 잘 모르겠군요 ㅋㅋ