Люди, которые больше знают об ИИ, с меньшей вероятностью будут ему доверять? Недавно газета The Guardian опубликовала статью о работниках ИИ, которые предупреждают других держаться подальше от ИИ. Опрошенными были люди, нанятые для обучения ИИ. Они выразили обеспокоенность по поводу неконтролируемых предубеждений, необходимости оценивать ответы на медицинские вопросы, для решения которых они не были квалифицированы, нечетких инструкций, отсутствия подготовки и неоправданно коротких сроков. Многие из них теперь предупреждают своих друзей и родственников об опасностях ИИ и запрещают своим детям использовать его.
Обвинения в дезинформации или предвзятости в отношении ИИ не новы. Однако статья в Guardian интересна тем, что отражает мнения людей, которых обычно никто не думает спрашивать, — тестировщиков ИИ, которые на собственном опыте испытали часы низкооплачиваемого человеческого труда, стоящие за каждым запуском ИИ. Когда высокопоставленные эксперты в области ИИ говорят о рисках, связанных с ИИ, люди с большей вероятностью прислушаются. У группы кампании «Пауза ИИ» есть список вероятности гибели ИИ, основанный на том, что разные люди говорят о вероятности «очень плохого исхода» от ИИ. В списке представлены эксперты по искусственному интеллекту, написавшие книги и научные статьи об опасностях искусственного интеллекта.
Даже крупные влиятельные посредники в области ИИ, кровно заинтересованные в том, чтобы люди финансировали и подписывались на ИИ, призывают к осторожности в отношении слепого доверия к ИИ. В подкасте OpenAI в июне 2025 года генеральный директор Сэм Альтман сказал: «Люди очень доверяют ChatGPT, что интересно, потому что ИИ галлюцинирует. Это должна быть технология, которой вы не так уж доверяете». Однако, в отличие от собеседников Guardian, Альтман не отговаривает людей вообще использовать ChatGPT.
Чем занимаются оценщики искусственного интеллекта?
Как и работники ИИ, опрошенные Guardian, я отбыл свой срок на рейтинговых должностях в сфере ИИ. Я полагаю, что многие писатели-фрилансеры делали то же самое в периоды затишья. Это было для сторонних компаний, которые все еще активно набирают сотрудников, поэтому спрос на работников по-прежнему высок. В моем случае я никогда не знал, какой продукт AI компании я помогаю создавать.
Вам даются такие задачи, как оценка ответов ИИ по критериям или составление подсказок ИИ, которые проверяют такие вещи, как способность LLM выполнять многоэтапные запросы или обрабатывать неясные инструкции. Некоторые задачи включали намеренные попытки заставить LLM нарушить собственные правила в отношении оскорбительного контента. Многие из опрошенных The Guardian говорили, что время, отведенное на выполнение задач, было слишком коротким, чтобы обеспечить обдуманный и тщательный результат, что также подтвердил мой опыт. Как выразился один из специалистов по искусственному интеллекту: «От нас ожидают, что мы поможем сделать модель лучше, однако нам часто дают расплывчатые или неполные инструкции, минимальное обучение и нереалистичные сроки выполнения задач».
Заставил ли меня опасаться ИИ опыт работы в системе, в которой быстрые сроки выполнения работ превыше всего остального? Как писатель-человек, пишущий об ИИ, у меня с ним сложные отношения. Мне нравится эта технология, но я ненавижу количество низкокачественного мусора, который она производит. У меня здоровый скептицизм по поводу качества контента, который он производит, но я бы не советовал людям не использовать его. И хотя все опасения, высказанные опрошенными в статье, обоснованы, стоит помнить, что оценщики ИИ — это лишь часть процесса, когда дело доходит до тестирования и тонкой настройки моделей ИИ.
Как обучаются модели ИИ?
Обучение модели большого языка GPT состоит из двух основных этапов. Это моделирование и тонкая настройка языка. На этапе языкового моделирования ИИ обучается на огромных объемах данных, включая веб-страницы, книги и другие текстовые данные. Он использует эти данные для изучения общих моделей языка. Именно на этапе тонкой настройки подключаются тестировщики-люди. Люди просматривают и ранжируют ответы модели в процессе, который призван сделать ее более безопасной и полезной, а также обеспечить ее реакцию так, чтобы люди понимали ее и могли к ней относиться. Такие компании, как OpenAI, нанимают старших инженеров-исследователей для решения более специализированных задач, в то время как большая часть рутинной работы по оценке передается на аутсорсинг третьим лицам и выполняется работниками по всему миру.
Большая часть тестирования продолжается и продолжается после выпуска каждой версии модели. Например, «красная команда» — это фраза, используемая для работников, которые намеренно проверяют модель на предмет ошибок, предвзятости или небезопасного поведения. Они эффективно пытаются его сломать, а обнаруженные ими проблемы используются для улучшения последующего обучения. Компании, занимающиеся искусственным интеллектом, также поощряют людей сообщать об ошибках и давать отзывы о качестве ответов.
Несмотря на все эти процессы, ИИ все равно допускает ошибки. А иногда эти ошибки просто опасны. The Guardian недавно исследовал медицинские рекомендации, предоставленные обзорами Google AI, и нашел примеры, когда обзор неправильно отвечал на вопросы о результатах тестов функции печени, а это означало, что люди с серьезными проблемами со здоровьем могли считать, что с ними все в порядке. В результате сообщения газет Google обновил ИИ и удалил обзор вопросов о тестах функции печени.