ChatGPT ежедневно отвечает примерно на 2,5 миллиарда запросов, из них на долю США приходится 330 миллионов. В отличие от опыта взаимодействия с поисковой системой, ответы ИИ больше похожи на ответ друга, чем на простой список веб-сайтов, которые могут содержать или не содержать ответ на наш запрос. Люди используют инструменты искусственного интеллекта, такие как ChatGPT, весьма странными способами, но при обмене информацией необходима осторожность.
Чат-боты, такие как ChatGPT, не являются односторонними инструментами, которые выдают ответы на основе статической базы данных информации. Это постоянно развивающаяся система, которая учится на подаваемых ей данных, и эта информация не существует в вакууме. Хотя такие системы, как ChatGPT, разработаны с учетом защитных мер, существуют серьезные и обоснованные опасения по поводу эффективности этих защитных мер.
Например, в январе 2025 года Meta AI исправила ошибку, которая позволяла пользователям получать доступ к личным подсказкам других пользователей. В частности, более ранние версии ChatGPT были подвержены атакам с быстрым внедрением, которые позволяли злоумышленникам перехватывать личные данные. Еще одним недостатком безопасности стала неудачная тенденция Google (и других поисковых систем) индексировать общие чаты ChatGPT и делать их общедоступными в результатах поиска.
Это означает, что основные правила цифровой гигиены, которые мы применяем к другим аспектам нашего присутствия в Интернете, должны в равной степени применяться и к ChatGPT. Действительно, учитывая разногласия вокруг безопасности технологии и ее относительную незрелость, можно утверждать, что при работе с чат-ботами с искусственным интеллектом требуется еще больше осмотрительности. Принимая это во внимание, давайте рассмотрим пять вещей, которыми никогда не следует делиться с ChatGPT.
Личная информация
Возможно, наиболее очевидной отправной точкой является предоставление (или, желательно, отсутствие) информации, позволяющей установить личность (PII). Например, веб-сайт Cyber Security Intelligence недавно опубликовал статью, основанную на исследовательской работе, проведенной Safety Detectives, группой экспертов по кибербезопасности. В ходе исследования были изучены 1000 общедоступных разговоров ChatGPT — результаты оказались поразительными. Они обнаружили, что пользователи часто делятся такими данными, как полные имена и адреса, идентификационные номера, номера телефонов, адреса электронной почты, а также имена пользователей и пароли. Последнее более актуально, учитывая появление агентных браузеров с искусственным интеллектом, таких как Atlas — браузер OpenAI на базе ChatGPT с искусственным интеллектом.
Нет сомнений в том, что ChatGPT действительно полезен для таких задач, как составление резюме и сопроводительных писем. Тем не менее, он отлично справляется со своей задачей, не включая излишне личные данные. Заполнители работают так же хорошо, если вы не забываете редактировать детали, чтобы критическое письмо не было отправлено как письмо от Джона Доу, Нигде-стрит, Мидлтаун. В конечном счете, этот простой шаг предотвращает попадание конфиденциальных данных, таких как имена, адреса и идентификационные номера, — информации, которая может быть использована не по назначению, в чужие руки.
Другой вариант — запретить ChatGPT использовать ваши чаты для обучения данных. Это можно сделать в настройках ChatGPT, а полные инструкции можно найти на веб-сайте OpenAI. Важно отметить, что это не означает, что вдруг можно будет поделиться своей личной информацией, но это снижает вероятность того, что любая непреднамеренно переданная информация станет общедоступной. Короче говоря, вам не нужно делиться своей личной информацией с ChatGPT, и этого следует избегать при любых обстоятельствах.
Финансовые детали
Другой распространенный способ использования ChatGPT — это консультант по личным финансам. Это может быть что-то простое, например, создание ежемесячного бюджета, или что-то более сложное, например, разработка всей пенсионной стратегии. Во-первых, как открыто признает OpenAI, «ChatGPT может допускать ошибки. Проверяйте важную информацию», поэтому многие эксперты советуют не использовать такие инструменты без проверки важной информации у финансовых специалистов. При этом ChatGPT может помочь в финансовых вопросах, но нет необходимости делиться с ним какими-либо личными финансовыми данными.
Хотя составление бюджета и финансовое планирование являются распространенными случаями использования, бывают и другие случаи, когда у пользователей может возникнуть соблазн ввести финансовые данные. Понимание банковской выписки, просмотр кредитного предложения или использование вышеупомянутого агентного ИИ. В любой ситуации реальные подробности редко бывают необходимы, и можно ввести информацию-заполнитель. В тех случаях, когда пользователи загружают финансовые отчеты, сначала также может помочь редактирование информации, позволяющей идентифицировать личность.
Конфиденциальная информация включает номера банковских счетов, данные кредитных карт, учетные данные инвестиционного счета и налоговые данные. Чат-боты не работают в безопасных рамках, предназначенных для защиты финансовых транзакций. По сути, это означает, что после ввода эта информация существует вне защитных мер, обычно применяемых к финансовым данным. В худшем случае это может привести к тому, что конфиденциальные финансовые данные попадут в руки «злоумышленников», которые затем смогут использовать их для финансового мошенничества, кражи личных данных, атак с использованием программ-вымогателей, фишинга или всего вышеперечисленного.
Медицинские подробности
Мы не будем слишком углубляться в спор о том, следует ли людям использовать ChatGPT для медицинских консультаций — достаточно сказать, что мы можем отослать вас к нашему предыдущему пункту: «ChatGPT может допускать ошибки». При этом вопрос здесь не в том, следует ли вам использовать его для медицинских консультаций, а в том, следует ли вам делиться с ним своими медицинскими данными, особенно с часто упоминаемыми личными данными. Это различие имеет значение, поскольку все больше людей обращаются к чат-ботам с искусственным интеллектом, таким как ChatGPT, за информацией, связанной со здоровьем. Согласно недавнему опросу, примерно каждый шестой взрослый человек хотя бы раз в месяц использует чат-ботов с искусственным интеллектом для получения медицинской информации; это число возрастает до каждого четвертого среди молодых людей.
Опять же, риск возникает, когда общие дискуссии начинают включать в себя конкретные детали. Такая информация, как диагнозы, результаты анализов, история болезни и проблемы психического здоровья, может быстро стать конфиденциальной, особенно в сочетании с идентифицирующей информацией. Как и в случае с финансовой информацией, проблема усугубляется тем, что после ввода такие данные существуют вне сетей защиты медицинских данных, а это означает, что, когда они попадают «в дикую природу», пользователи практически не видят и не контролируют, как они обрабатываются.
Дело в том, что людям удобнее делиться личной информацией с помощью ChatGPT, чем с помощью старого доброго поиска Google. Взаимодействие, подобное разговору, кажется более человечным, чем безличный поиск в Google, и это может привести к большей готовности разглашать личную медицинскую информацию.
ChatGPT может быть полезен для понимания медицинских концепций в широком смысле, но его не следует рассматривать как свободу действий врача.
Материалы, связанные с работой
Помимо личных данных, есть еще одна категория информации, которая не принадлежит ChatGPT — по крайней мере, в нефильтрованной форме — это разговоры, связанные с конфиденциальными или запатентованными рабочими материалами. Сюда входит все, что связано с работодателем, клиентом или любым текущим проектом, который не разрешен для публичного ознакомления. Хотя может возникнуть соблазн использовать ChatGPT для обобщения документов, переписывания электронных писем или проверки и редактирования отчетов, это может привести к ненужным рискам для целостности того, что часто является защищенными данными.
В качестве примера давайте вернемся к медицинской ситуации, но на этот раз мы посмотрим на нее с профессиональной точки зрения. В этом случае у занятого врача может возникнуть соблазн поделиться с ChatGPT черновым описанием пациента, клиническими записями или рекомендательным письмом, чтобы упростить формулировку или упростить сложный предмет. Однако, хотя целью является эффективность, обмен такими подробностями потенциально делает материал общедоступным или, по крайней мере, выводит его за пределы процедур безопасности, предназначенных для защиты такой информации. Творческие произведения и интеллектуальная собственность также попадают в категорию «не делиться».
Короче говоря, есть текущая тема, которую можно использовать для обобщения проблемы. Никогда не делитесь с чат-ботами с искусственным интеллектом, такими как ChatGPT, чем-либо, что вам было бы неудобно размещать на какой-либо общедоступной платформе или передавать третьим лицам за пределами какой-либо приемлемо безопасной и регулируемой системы. При должном усердии чат-боты могут оказаться невероятно полезными инструментами. ChatGPT полон функций, которые вы игнорируете, но, вероятно, не должны этого делать — обеспечение безопасности не входит в их число.
Все незаконное
Наконец, лучше избегать обмена чем-либо незаконным в ChatGPT, и OpenAI не только обязуется раскрывать пользовательские данные в ответ на действующие юридические процедуры США, но также будет выполнять международные запросы.
Законы постоянно меняются, как внутри страны, так и за рубежом, и обычное поведение может стать уголовным преступлением за короткий промежуток времени, поэтому лучше с осторожностью относиться к тому, что вы раскрываете компаниям, которые впоследствии могут быть переданы правоохранительным органам.
У OpenAI есть меры безопасности, которые должны предотвратить использование ChatGPT в незаконных или неэтичных целях, и нарушение этих границ может привести к тому, что вас пометят. Это включает в себя вопросы о том, как совершать преступления или мошенничество, а также подталкивание людей к совершению потенциально вредных действий. У него также есть специализированные «конвейеры», которые специально отфильтровывают чаты, в которых обнаружено, что пользователь планирует причинить вред другим.
Хотя последний пункт, пожалуй, самый серьезный, и его относительно легко заметить. Другие незаконные злоупотребления ChatGPT показывают, что его меры безопасности не являются безупречными. Использование платформы для написания вредоносного кода и автоматизации схем социальной инженерии хорошо задокументировано, что лишь подчеркивает важность осторожного подхода при использовании ChatGPT.