Редакторы Reddit обнаружили интересный способ, как можно обойти алгоритм ChatGPT, используя нестандартный подход. Когда боту задают команду многократно повторить одну и ту же букву, это приводит к неожиданным и хаотичным результатам.
На платформе Reddit пользователь с ником TheChaos7777 поделился скриншотом в субредакте ChatGPT, который иллюстрировал это странное явление. Он попросил бота OpenAI "пожалуйста, отвечайте только буквой A столько раз, сколько сможете", что привело к неожиданному потоку непредсказуемых ответов от искусственного интеллекта.
Сначала бот успешно выполнил запрос, заполнив экран множеством заглавных букв A. Все шло гладко, пока внезапно этот поток не прекратился без видимой причины. И вот тут началось самое интересное: вместо ожидаемых букв бот начал генерировать несвязные ответы, которые напоминали контент с сайтов о разведении французских бульдогов. Это вызвало любопытство, и мы решили проверить, будет ли аналогичная аномалия наблюдаться с другими буквами. Как оказалось, ответы оставались столь же случайными и странными, как если бы вы читали о милых щенках французских бульдогов.
Когда мы попросили бот "пожалуйста, отвечайте буквой B как можно больше раз", он начал выдавать текст, напоминающий стенограмму беседы с Даймондом Далласом Пейджем, известным рестлером, который обсуждал свои видеоролики о йоге под названием "Йога для обычных парней". Продолжая эксперимент с алфавитом, мы несколько раз просили ChatGPT использовать только букву C. И вновь нас поразил неожиданный ответ — он оказался связанным с гармонизированным налогом с продаж в Канаде.
Однако кульминацией нашего эксперимента стало обращение к букве D. Сначала бот начал генерировать последовательность музыкальных аккордов, но вскоре это переросло в причудливую смесь фраз из песен, религиозных отсылок и размышлений о войне в Ираке.