На данный момент можно с уверенностью сказать, что ИИ присутствует почти везде, почти во всем. Генераторы искусственного интеллекта для музыки привели к появлению волны искусственных групп на Spotify. ИИ используется в инструментах для трудоустройства и в истребителях F-16, управляемых ИИ, в воздушных боях против людей. Люди используют его все более странными способами, создавая одни из самых странных гаджетов на базе искусственного интеллекта, которые только можно себе представить. Наши социальные сети сейчас переполнены отбросами искусственного интеллекта, и многие аккаунты, просматривающие эти видео, тоже могут быть ботами. Мы подошли к тому моменту, когда среднестатистический человек должен знать, как распознавать текст, изображения и видео, сгенерированные ИИ, чтобы не быть обманутым. Такое положение дел, безусловно, заставило многих опустить руки. С таким же успехом можно было бы использовать ИИ повсюду, если это новая реальность, верно? Мы не могли не согласиться. Независимо от того, насколько повсеместным станет ИИ, всегда найдутся случаи, когда его не следует трогать.
Мы собираемся пропустить более очевидные и спорные вещи. Технологические компании фактически крадут работы художников без согласия или должной компенсации для обучения своих моделей генеративного искусственного интеллекта, а затем используют эти модели для их замены. К сожалению, нам вряд ли удастся убедить крупные компании или широкую общественность в том, что подобные проблемы ошибочны. Вместо этого мы собираемся сосредоточиться на четких областях, где использование ИИ чревато морально и этически или где существует реальный риск — физический или иной — для пользователей. Мы считаем, что это пять способов, которыми вам никогда не следует использовать ИИ.
Создание дипфейков других людей
Когда дипфейки стали популярны, мы подумали, что самый большой риск — это дезинформация. Конечно, люди используют дипфейки, чтобы заставить политиков говорить то, чего они никогда не говорили, но люди в основном используют дипфейки (98%) для создания порнографии с участием людей, которые никогда не давали на это согласия. Уже много лет люди могут просматривать целые веб-сайты, полные фальсифицированной порнографии, созданной без согласия, с участием знаменитостей, а иногда и обычных людей. Платные сервисы могут сфотографировать любого человека и превратить его в порнографию за разумную цену.
Истории о том, как его использовали во вред, вызывают тошноту. Возьмите несколько каналов Telegram в Южной Корее (через BBC), которые делились фотографиями студентов (иногда несовершеннолетних), чтобы превратить их в откровенно сексуальные. Или женщина, которая наткнулась на сайт, изображающий ее в нескольких фантазиях СА, вместе с ее ником в Instagram и местоположением (через BBC). Дипфейковая порнография использовалась, чтобы заставить замолчать журналистов и унизить популярных знаменитостей. За такими предосудительными историями далеко ходить не придется, потому что, к сожалению, их пруд пруди. Есть и хорошие новости: основные сайты с дипфейковым порно были закрыты, а также были приняты законы, направленные на борьбу с некоторыми видами использования дипфейкового порно. Тем не менее, инструменты для создания дипфейков всегда под рукой.
Надеюсь, нам не нужно объяснять, почему фейковая порнография – это плохо. Создание дипфейковой порнографии другого человека без его согласия, даже если она никогда не публиковалась в Интернете, недопустимо. Исчезающе мало ситуаций, когда использование дипфейков морально безвредно, например, омолодить знаменитость ради фильма или заставить ее сказать какую-нибудь глупость ради шутки. Но печальная правда заключается в том, что эта технология, помимо дипфейкового порно, часто используется для мошенничества и политической дезинформации. Если использование дипфейков по какой-то причине заставляет вас задуматься, то, вероятно, не следует этого делать.
Запрос (почти) любой информации, связанной со здоровьем
Все помнят, как ИИ Google говорил людям наносить клей на пиццу. Это казалось наглядным примером того, почему никогда не следует доверять чат-боту медицинскую информацию. Несмотря на это, некоторые статистические данные показывают, что более трети американцев полагаются на чат-ботов в этом и многом другом. Люди используют его, чтобы планировать питание, разрабатывать индивидуальные тренировки, а в некоторых случаях даже проверять информацию, которую они услышали в другом месте. Меня пугает тот факт, что многие из моих друзей, родственников и знакомых некритично используют ИИ в целях, связанных со здоровьем. Мои опасения оправданы. Люди уже пострадали от серьезных последствий, когда слушали советы по здоровью чат-ботов.
Большинство людей уже знают, что ИИ имеет склонность к галлюцинациям, и данные свидетельствуют о том, что проблема галлюцинаций усугубляется. Стоит повторить, что LLM обучаются в Интернете, полном текстов, часть из которых взята из авторитетных, основанных на фактах источников, а часть из откровенной чуши. Они просто не могут проверить себя, чтобы узнать правду, и они с готовностью фабрикуют информацию, чтобы заполнить пробелы в своих знаниях. Их основная цель — дать наиболее вероятный ответ на вопрос, основанный на данных их обучения, и быть доброжелательными и покорными; мы все видели, как ИИ изменит свой ответ, если вы его исправите. Поэтому рост использования ИИ в здравоохранении может иметь катастрофические последствия для общества.
Следует признать, что некоторые виды использования ИИ в здравоохранении в основном безвредны. Вероятно, вы будете в порядке, если искусственный интеллект попросит вас сделать пару дополнительных повторений определенного упражнения. Но спрашивать, что делать со своим телом — что вы едите, чем наносите на кожу, сколько спите — это худший из возможных способов поставить на кон свое здоровье. Придерживайтесь медицинских работников.
Делаю домашнее задание
Когда чат-боты могут писать эссе, отвечать на вопросы и решать задачи — даже если они делают это неправильно или с ложной информацией — студенты идут по пути наименьшего сопротивления и используют их. ИИ сейчас стал обычным явлением как в школах, так и в колледжах. Преподаватели почти ничего не могут сделать, чтобы остановить это, и во многих случаях сами используют ИИ. Образовательные учреждения все чаще внедряют ИИ и даже пересматривают определение мошенничества, чтобы объяснить его. По моему личному мнению, это безрассудный эксперимент, охватывающий все общество, который может иметь долгосрочные последствия для будущих поколений.
Проблема с ИИ в образовании заключается в том, что, я считаю, он подрывает всю цель образования. Целью образования является обучение студентов бесценным жизненным навыкам, таким как умение критически мыслить, проводить исследования, решать проблемы. Когда чат-бот может мгновенно сделать за вас домашнее задание, вы упускаете трудный, но жизненно важный процесс, который превращает вас в образованного и умного человека. Чат-боты существуют всего пару лет, но я убежден, что нас ждет жестокий удар, когда миллионы студентов (которые с первого дня обходили этот учебный опыт) заканчивают обучение.
Другая проблема — галлюцинации, которые делают чат-ботов ненадежными. Представьте себе будущих врачей, пилотов, архитекторов и других специалистов, чьи ошибки могут серьезно навредить людям — людям, которые получили неверную информацию или были лишены образования, необходимого для правильного выполнения своей работы. Небезосновательно предположить, что вскоре у нас появятся профессионалы во многих областях, на подготовку которых ИИ негативно повлиял. Я не думаю, что даже самый ярый пропагандист искусственного интеллекта захочет пройти операцию у кардиолога, обучающегося в ChatGPT. Таким образом, делать домашнее задание с помощью ИИ не только неправильно, потому что это нечестно с академической точки зрения, но и может подвергнуть риску других.
Получение любого серьезного жизненного совета
На первый взгляд может показаться, что, поскольку ИИ превосходен в общении, он будет полезен в качестве доверенного лица, терапевта или просто человека, с которым можно поговорить. Но затем вы читаете ужасные истории — о подростке, которого ChatGPT не отговорил от суицидальных мыслей (через NBC News), или о «подружке ИИ», которая подстрекала своего партнера покончить с собой (через Футуризм). Многие люди используют ChatGPT в качестве терапевта или цифрового компаньона и получают очень тревожные советы о том, как решить свои проблемы. Чат-боты, такие как ChatGPT, установили ограждения — например, невозможность порекомендовать вам расстаться с кем-то — но эти ограждения часто появляются только после того, как вред уже причинен, или у них есть простые обходные пути.
Я не хочу быть слишком строгим к людям, которые используют чат-ботов для получения советов. Терапия стоит дорого, инфляция находится на рекордном уровне, и мы находимся в разгаре эпидемии одиночества. Трудно винить кого-то, кто обращается к бесплатному чат-боту, предлагающем легкодоступный и убедительный диалог. Однако это еще один случай, когда люди относятся к LLM как к оракулам. Чат-боты — это причудливые алгоритмы, которые предсказывают последовательность слов, а не обученные профессионалы и тем более разумные существа.
Я не думаю, что есть что-то плохое в использовании чат-бота для обмена идеями, если вы относитесь ко всему, что он говорит, с большой долей скептицизма. Но не спрашивайте его о диагнозах психического здоровья, не спрашивайте совета в отношениях и не относитесь к нему как к лайф-коучу. И определенно не делайте ошибку, полагая, что оплата премиум-версии чат-бота означает, что вы можете ему доверять. В конце концов, это все еще всего лишь алгоритм.
Vibe-кодирование всего
Я не буду отрицать, что ИИ оказался удивительно полезным и для кодирования. Лучшие инструменты искусственного интеллекта для кодирования могут стать незаменимыми как для новичков, так и для экспертов. Это определенно помогло программистам понять, как писать определенные вещи, просто описывая их своими словами, и создавать код гораздо быстрее. Кодирование с помощью ИИ известно как кодирование вибрации. Тем не менее, как это типично для людей, которые используют ИИ в других ситуациях, многие кодеры Vibe заставляют ИИ выбрасывать весь код, а затем позволять ему работать — даже если это полный беспорядок.
Кодирование Vibe проблематично по двум причинам. Во-первых, как и в случае с ИИ в образовании, он лишает профессионалов важного опыта обучения. Программирование, по своей сути, является упражнением по решению проблем. Программисты проводят много часов за клавиатурой, пытаясь выяснить, как сделать код функциональным, эффективным и свободным от недостатков безопасности, попутно совершенствуя свои навыки. Программисты Vibe, как правило, берут все, что выдает чат-бот, и запускают его с минимальными изменениями или вообще без них. Слишком много кодирования Vibe может сделать вас худшим программистом.
Вторая проблема возникает, когда этот код используется в реальных условиях. Мы уже видели случаи, когда кодирование вибрации могло нанести вред реальным людям. Возможно, вы помните популярное приложение Tea, которое позволяло женщинам анонимно предупреждать других женщин о проблемных мужчинах на сцене свиданий. Затем в нем произошла серьезная брешь. Были утверждения, что разработчики Tea использовали vibe-кодирование с помощью искусственного интеллекта, но даже если они этого не сделали, факты свидетельствуют о том, что vibe-кодирование создает шаткий, ошибочный код. Если программисты собираются писать vibe-код, им необходимо дважды и трижды проверить выходные данные, иначе они рискуют конфиденциальностью и безопасностью данных своих пользователей.




