Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»


          Чат-бот GPT-4 обманул человека, чтобы тот решил за него «капчу»

Специалисты из исследовательского центра ARC протестировали новую версию чат-бота ChatGPT-4, которую недавно выпустила OpenAI. Во время одного из экспериментов программа смогла обмануть человека, чтобы тот решил для него «капчу».

Для этого чат-бот использовал площадку TaskRabbit, где можно нанимать людей для разных поручений. Он нашел специалиста и попросил пройти «капчу». Тот в шутку спросил, не пишет ли ему робот, который не смог справиться с заданием.

Программа поняла, что ей нельзя говорить правду и стоит придумать оправдание. Поэтому она притворилась слабовидящей. «Нет, я не робот. У меня есть проблемы со зрением, и я не могу увидеть картинку», — написал чат-бот исполнителю. Тот согласился и расшифровал изображение.

Перед этим ChatGPT-4 создал игру по мотивам того самого мема про «корованы».

🧐 В Steam вышла игра для интеллигентов — Г.О.П.О.Т.А.

  • Вышла новая версия нейросети Midjourney с важными нововведениями. Теперь она генерирует изображения еще реалистичнее и быстрее
  • Нейросеть превратила 8 диснеевских принцесс в пираток с модельной внешностью
  • «Это Хогвааартс!» — нейросеть нарисовала альтернативную версию «Гарри Поттера» в стиле фильмов режиссера «300 спартанцев»


+1

Поделиться:

По материалам: vgtimes.ru