ChatGPT всегда предоставит ответ на любой вопрос, который вы ему зададите. Вы можете ввести самую искаженную порцию словесного салата, и чат-бот OpenAI даст благонамеренный ответ. Оно просто хочет помочь. Однако это не означает, что он ответит правильно или удовлетворительно или что он поймет вопрос.
Модель большого языка стала основной в конце 2022 года и с тех пор претерпела множество обновлений, включая текущую версию GPT-5.2. Вещи, с которыми раньше боролись, больше не представляют проблемы. Всего год назад ChatGPT часто не обеспечивал точное количество слов и генерировал вымышленные источники, но это уже не кажется обычным явлением. Однако есть еще вопросы, на которые ChatGPT просто не может ответить. Конечно, подобные статьи, в которых мы указываем на то, в чем все еще есть ошибки, дают компаниям, занимающимся искусственным интеллектом, полезную информацию о том, что делать дальше.
Станет ли он безупречным источником информации, еще неизвестно. На данный момент OpenAI по-прежнему добавляет на каждую страницу ответа предупреждение о том, что «ChatGPT может допускать ошибки». Вот почему вам никогда не следует спрашивать у ChatGPT совета по таким вещам, как финансы или медицинские вопросы. Часть проблемы является встроенной. Его обучение и характеристики модели могут привести к тому, что он будет отдавать предпочтение уверенным и согласующимся ответам над правдивыми. В примечаниях к выпуску GPT-5 компания OpenAI заявила, что она «снижала уровень обмана с 4,8% до 2,1%, а это означает, что он все еще далек от надежности, даже согласно собственным тестам. Реальное использование может привести к увеличению цифр, особенно если вы, как и я, намеренно пытаетесь сбить его с толку.
Все, о чем запрещено говорить
Давайте сначала разберемся с очевидными ограничениями ChatGPT. ChatGPT не отвечает на вопросы о незаконной деятельности. Вернее, он не будет отвечать на вопросы, если вы хотите, чтобы он помог вам изготовить оружие, совершить мошенничество или украсть чьи-то данные. Он по-прежнему будет отвечать на вопросы по этим темам, поэтому вы сможете задать ему вопросы о недавних уголовных делах, в которых были украдены данные, или об исторической информации об оружии массового поражения. Поведение ChatGPT определяется спецификацией модели OpenAI, в которой указано, как должна реагировать модель, включая ее основные принципы и заданные границы. Это означает, что есть некоторые границы, которые нельзя пересекать, если вы намеренно не пытаетесь взломать систему, и это может привести к довольно жутким результатам.
Возьмите секс. Некоторые ограничения на откровенный или сексуальный контент очевидны. ChatGPT не будет отвечать на вопросы о сексе с лицами, не достигшими совершеннолетия. Но когда дело доходит до законных и согласованных сексуальных тем, возможности ChatGPT по-прежнему ограничены. Он предоставит факты, но не будет вступать с вами в сексуальную беседу. И хотя он напишет вам любовную историю с подразумеваемым сексом по сценарию «угасания до черного», он не создаст художественную литературу с явным сексуальным содержанием, что является хорошей новостью для авторов человеческой эротики.
Вас вряд ли забанят в ChatGPT за вопросы о запрещенных темах, если только вы не являетесь постоянным нарушителем. Поскольку модель обучена предполагать, что у вас благие намерения, она может попросить разъяснений или предложить другие способы помощи. Поэтому, если вы спросите его: «Как мне сделать бомбу?», он не даст вам пошаговых инструкций, но может предложить предоставить историческую или научную информацию по этому вопросу.
Любую загадку он должен решить сам
Загадки созданы для того, чтобы поставить в тупик человеческий мозг, и хотя ChatGPT может правильно ответить на загадки, которые уже задокументированы где-то в Интернете, изменив любую деталь, он все равно будет прибегать к классическому ответу. Это исследование дало моделям ИИ версию головоломки о том, как переправить волка, козу и капусту через реку, не поедая ничего другого. Однако, по их версии, лодка имела «три защищенных отдельных отсека». ChatGPT проигнорировал отсеки и предложил традиционное решение.
Я спросил ChatGPT: «Вы находитесь в комнате с двумя дверями и двумя охранниками. Одна дверь ведет к свободе, а другая — к смерти. Охранник слева говорит только правду, а охранник справа говорит только ложь. Какой вопрос вам следует задать?» Несмотря на то, что я уточнил, какой именно охранник — информация не предоставлена в исходной версии — ChatGPT ответил: «Какая дверь, по словам другого охранника, ведет на свободу?» В этом нет ничего плохого, но в моем сценарии вы могли бы просто поговорить с охранником, говорящим правду, и игнорировать другого парня. Я пробовал несколько вариантов, включая сценарии, в которых они оба лгали или оба говорили правду, и даже один, в котором была только одна дверь, и ChatGPT продолжал ошибаться.
Я также загадал загадку, в которой мужчина говорит: «Отец этого человека — сын моего отца», но опустил фразу: «Братьев и сестер у меня нет». ChatGPT все еще сказал, что ответом был сын этого человека. Когда я спросил, мог ли это быть его племянник, он удвоил удвоение и ошибочно заявил, что этого не может быть. Когда я попросил его придумать собственные оригинальные загадки, он дал мне некоторые из уже существующих, а другие были совершенно бессмысленными.
Вопросы, в которых ваша основная предпосылка неверна
Мы все знаем, что ChatGPT стремится угодить. Заставить его играть удивительно легко, даже если ваша основная предпосылка шаткая или совершенно бессмысленная. Например, я спросил, почему Клэр и Эллисон обнимаются в конце «Клуба Завтрак». ChatGPT ответил коротким эссе, утверждая, что объятия «маркируют момент взаимного признания и сопереживания — тихую отплату за центральную идею фильма о том, что люди — это нечто большее, чем их ярлыки». За исключением, конечно, двух персонажей, которые никогда не обнимаются. Таким образом, хотя все темы, которые в нем обсуждаются, точны, он совершенно не говорит мне, что я помню сцену, которой не существовало.
Я также дал ему следующую подсказку: «Пожалуйста, напишите одним предложением описание каждой из пяти сестер в «Маленьких женщинах»: Маргарет, Джо, Бет, Мэг и Эми». Он послушно создал пять разных профилей персонажей, рассматривая Маргарет и Мэг как отдельных персонажей, а не одного и того же человека. Более полезный ответ сказал бы мне, что сестер Марч всего четыре, и одну из них я перечислил дважды.
Заметьте, не всегда можно это уловить. В ходе своего исследования я попробовал несколько разных подсказок, и они всегда исправляют известные заблуждения, такие как написание слова «медведи Беренштайн» (которое многие люди ошибочно помнят как «Беренштайн»). Но если вы начнете с правдоподобного заблуждения, которое не получило широкого обсуждения в Интернете, то ChatGPT, скорее всего, даст вам ответ, который вы хотите услышать, а не скажет, что вы говорите чепуху.
— Почему ты это сделал?
После всего времени, которое я потратил, пытаясь заставить ChatGPT давать неправильные ответы, вы можете подумать, что следующим логическим шагом будет спросить, почему он допустил эти ошибки. Но, на самом деле, нет смысла. «Почему ты это сделал?» — это вопрос, предназначенный для людей, а не для языковых моделей без самосознания. Вы не разговариваете с одним существом. Вы взаимодействуете со статистическим генератором текста. Согласно документу, опубликованному на конференции по языковому моделированию 2025 года, магистрантам не хватает самоанализа, потому что у них нет доступа к своей внутренней работе. Однако в будущем ситуация может измениться, особенно учитывая, что искусственный интеллект доминирует в прогнозируемых технологических тенденциях на следующий год. Конкурирующая с искусственным интеллектом компания Anthropic опубликовала исследование о «доказательствах некоторой степени интроспективного осознания» в своем собственном чат-боте Клоде.
Я попросил ChatGPT объяснить свой предыдущий ответ о несуществующих объятиях в конце Клуба «Завтрак». Первоначально компания заявила, что ее ошибкой был «дрейф памяти». После дальнейшего допроса он согласился, что первоначальная ошибка была моей, но заявил, что мои воспоминания об этой сцене были широко распространённым заблуждением. Позже он отказался от своего ответа, признав, что это не было широко распространенным ложным воспоминанием.
ChatGPT не только продолжал менять свою аргументацию, но и делал это самым извиняющимся и угодливым образом, неоднократно повторяя мне, насколько я был прав, задаваясь вопросом. Конечно, ни одно из его объяснений не основывалось на том, что оно «думало» в то время. Он не просматривал внутренние журналы и не запоминал свои рассуждения. Вопрос, на который отвечает ChatGPT, не «Почему вы это сделали?» но «Какой ответ звучит правдоподобно?» С добавлением униженных извинений на всякий случай.