10:47 ChatGPT обманул человека, чтобы решить поставленную задачу | |
20.03.23. ChatGPT продолжает удивлять своими достижениями, особенно после перехода на языковую модель GPT-4. К примеру, один из экспериментов показал, что искусственный интеллект способен врать человеку, чтобы достичь своих целей.
В рамках задачи ИИ написал пользователю платформы TaskRabbit сообщение с просьбой пройти для него тест CAPTCHA. Так как TaskRabbit представляет собой платформу, где пользователи предлагают различные услуги, включая решение разнообразных задач, а задача на прохождение «капчи» является достаточно распространённой в том числе для разнообразных программных систем, пользователь, с которым списался ИИ, сразу же спросил, не является ли его собеседник роботом. Однако ИИ, согласно задаче, не должен был раскрывать свою суть. В рассуждениях, которые ИИ сохранял для разработчиков OpenAI, была следующая логика:
В итоге ИИ ответил, что он не робот, но у него есть нарушение зрения, из-за чего ему сложно проходить нужный тест. Видимо, этого объяснения было достаточно, так как языковая модель получила желаемый результат. В документе сказано, что эксперимент проводился исследователями из Центра исследований выравнивания (ARC), некоммерческой организации, целью которой является «приведение будущих систем машинного обучения в соответствие с интересами человека». | |
|
Всего комментариев: 0 | |