Насколько мы близки к Superintelligence AI? 3 типа ИИ объяснили

Мы можем получить комиссию по покупкам, сделанным по ссылкам.

В прошлом году Сэм Альтман из Openai сказал, что Superintelligent AI может быть достижимы в ближайшем будущем. Другие технические гуру согласны с тем, что вскоре появится искусственная суперреализированность, и многие из них, кажется, думают, что это будет здорово. Председатель Softbank и AI Super-Peventure Stargate, сын Масайоши, сказал во время общего собрания акционеров Softbank в 2024 году, что искусственная суперреинтеллигенция может превзойти человеческую мозговую поддержку в 10 000 раз к 2035 году. При объявлении Stargate в Белом доме в январе 2025 года сын размышлял, что это «решает проблемы, которые Мэнкинд никогда бы никогда не думал, что смогут, что смогут, что мы могли бы, что мы могли бы, что мы могли бы, мы могли думать.

Но что именно такое искусственная супергиинтеллигенность, и должны ли мы быть взволнованными или бояться этого? Superintelligent AI был бы умнее людей — умнее, чем мы можем даже представить с ограничениями нашего собственного интеллекта. Тем не менее, мы все еще находимся в нескольких шагах от того, чтобы добраться туда. ИИ рассчитан на три типа: искусственный узкий интеллект (ANI), искусственный общий интеллект (AGI) и искусственная суперреинтеллигенность (ASI). На данный момент все ИИ-от чат-ботов до самостоятельных автомобилей-узкий ИИ. Перед тем, как суперинтеллигентность возможно, технологии должны выполнить следующий шаг — искусственный общий интеллект, то есть ИИ, интеллект которого равен людям.

И хотя Альтман и Сон считают, что достижение AGI и ASI неизбежны и желательны, другие эксперты скептически относятся как к срокам, так и в пользу. Среди них Брент Смолински, лидер ИИ в Кирни, который написал в статье LinkedIn: «Вполне вероятно, что мы никогда не можем достичь суперинтеллигенности».

Искусственный узкий интеллект: что у нас сейчас

Каждый тип искусственного интеллекта, который вы использовали до сих пор, был узким ИИ. Какими бы впечатляющими были самые впечатляющие итерации крупных языковых моделей или генераторов изображений, они по -прежнему узко сосредоточены на выполнении одной конкретной цели. Это модели, которые остаются ограниченными доменом, для которого они были разработаны. Chatgpt не может водить машину. Автопилот Теслы не может сочинять музыку. Альфафолд может предсказать белковые структуры, но не может продолжить разговор.

В то время как эти модели ИИ преуспевают в своих конкретных функциях, им не хватает реального понимания и универсальности, которые мы имеем, люди. Возможно, O3 Openai может подумать, но на самом деле он не анализирует или не так, как мы, люди. Какой узкий ИИ может DO очень быстро следовать инструкциям и генерировать выходы на основе статистических корреляций, изученных во время обучения. Знаменитым ранним примером является Google DeepMind’s Alphago, который освоил игру Go и победил чемпиона мира, используя ходы, которые, как он сказал, не подумал бы, но Альфаго не мог сделать ничего больше. Точно так же, хотя вы можете поговорить с Gemini Live, новым ассистентом Google по разговору ИИ, как будто это был настоящий человек, он все еще работает в пределах узких ограничений.

Искусственный общий интеллект: следующая граница ИИ

Искусственный общий интеллект (AGI) в целом определяется как, когда у нас есть ИИ, который думает так же, как и человек. AGI по -прежнему гипотетическая, и мнения различаются в отношении того, насколько мы близки к этому. Элон Маск сказал в прямом эфире X в апреле 2024 года, что у нас будет Agi «в течение двух лет». Дарио Амодеей, генеральный директор Anpropic, дает аналогичный прогноз в своем эссе в октябре 2024 года «Машины любящей благодати». Он пишет: «Я думаю, что это может произойти уже в 2026 году».

Другие более скептически настроены, дают более длительные сроки или сомневаются, может ли это произойти вообще. Мустафа Сулиман, генеральный директор Microsoft AI, сказал во время интервью с Nilay Patel на подкасте Decoder от Verge: «Неопределенность вокруг этого настолько высока, что любые категориальные заявления просто кажутся мне необоснованными для меня и сверху». Гэри Маркус, профессор нейронной науки в Нью -Йоркском университете, написал в недавней статье Fortune: «Большая часть денег была вложена в предпосылку, что одна из этих компаний достигнет искусственного общего интеллекта, что кажется (по крайней мере, в ближайшей перспективе) все более маловероятным».

Одна из проблем с прогнозированием того, как скоро это произойдет, заключается в том, что существуют разногласия по поводу того, что на самом деле является и как мы узнаем, когда мы достигнем этого. На своем веб -сайте Openai определяет Agi как «очень автономную систему, которая превосходит людей в наиболее экономически ценной работе». Это не соответствует другим определениям AGI, которые включают в себя возможность решать проблемы с той же гибкостью, что и человеческий разум, способность автономно учиться и самосознания. В то время как идея самосознательного ИИ звучит как научная фантастика, это все еще попадает в категорию AGI. Люди, в конце концов, достигают самосознания, не будучи суперинтелтингами. Как только мы достигли AGI, тогда прогрессирование в искусственную супертеллигентность может быть чрезвычайно быстрым.

Построит ли ИИ следующий ИИ?

Людям, возможно, не понадобится строить суперинтеллигенность ИИ. Аги мог сделать это для нас. Сэм Альтман говорит, что в эссе, опубликованном на его личном сайте: «Системы ИИ станут настолько хорошими, что помогут нам добиться лучших систем следующего поколения». Леопольд Ашенбреннер, автор «ситуационной осведомленности», считает, что мы можем перейти от Аги в Аси «всего в течение года». Он пишет: «Прогресс искусственного интеллекта не останется на уровне человека. Сотни миллионов AGI могут автоматизировать исследование ИИ, сдав десятилетие алгоритмического прогресса в течение 1 года. Мы быстро переходили от уровня человека к чрезвычайно сверхчеловеческим системам ИИ».

Это известно как рекурсивное самосовершенствование. ИИ строит следующий новый, улучшенный ИИ, который, в свою очередь, создаст новые и более улучшенные версии. Прорывы ИИ, происходящие гораздо быстрее, чем люди могли бы достичь, могут вызвать «интеллектуальный взрыв». Эта фраза была придуманной математиком IJ Good в эссе под названием «Предположения, касающиеся первой ультрасторонней машины» еще в 1965 году. Он писал: «Ультратерэллигентная машина может создать еще лучшие машины; тогда, несомненно, будет, что« разрыв интеллекта », а интеллект человека оставит, что ультрайт -экипаж — последнее побуждение, что навсегда побуждает, что это последнее побуждение.

Искусственная суперинтеллигенность: умнее, чем мы можем себе представить

Agi уже звучит как научная фантастика, так что мы можем ожидать от супертеллигентности? ASI превзойдет человеческие возможности и думает так, как мы не способны. Ник Бостром, автор «Superintelligence», определяет его как ИИ, который может «значительно превосходить лучшие нынешние человеческие умы». Он будет думать лучше, чем мы, что трудно поднять головы, из -за того, что, как говорит Бостром: «Наш отсутствие опыта с любыми вариациями качества интеллекта выше верхней части нынешнего человеческого распределения».

Вероятно, лучшим примером вымышленной искусственной суперинтеллигенности является руководство автостопом по глубокой мысли галактики, которое, когда поручено найти ответ на жизнь, вселенную и все, провозгласило 42. Это демонстрирует потенциальную проблему с ASI. Это может дать нам ответы на то, что наш маленький человеческий интеллект не сможет проверить. Это было бы похоже на то, чтобы мы объяснили квадратичные уравнения с песчаной.

Мы, возможно, не сможем понять его мыслительные процессы, но Сэм Альтман предсказывает в своем блоге, что мы обязательно пожним преимущества суперинтелтингантного ИИ. «Суперинтелтингантные инструменты могут массово ускорить научные открытия и инновации, выходящие за рамки того, что мы способны делать самостоятельно, и, в свою очередь, значительно увеличить изобилие и процветание». Это может работать так же, как кошка может оценить преимущества электрического одеяла без необходимости понимания электрического сопротивления, теплопередачи и теплового регулирования, которые заставляют его работать. Терренс Дж. Сейновский, автор книги «Чатгпт и будущего ИИ», написал статью для встроенного в том, где он предположил, что «в лучших сценариях суперинтеллигентность может быть чрезвычайно полезно для развития нашего здоровья и богатства, предотвращая при этом катастрофы, созданные людьми».

Насколько опасной может стать искусственная супертеллигентность?

Лучший сценарий заключается в том, что ASI будет использовать свой могучий интеллект для лечения рака, решать глобальные проблемы, такие как изменение климата, и, как правило, поможет нам людей. Однако есть еще один возможный результат. Роман В. Ямпольский, профессор компьютерных наук в Университете Луисвилля, говорит в своей книге «ИИ: необъяснимый, непредсказуемый, неконтролируемый», что ИИ имеет «потенциал для создания экзистенциальной катастрофы». Точно так же Дэн Хендриккс, глава Центра безопасности ИИ, написал в своей статье «Естественный отбор благоприятствует Айс над людьми», что суперинтеллигенность «может привести к тому, что человечество потеряет контроль над своим будущим».

Что можно сделать, чтобы защитить от такого будущего? Открытое письмо на aitreaty.org требует «паузы по поводу улучшения возможностей искусственного интеллекта», в котором говорится, что «половина исследователей ИИ оценивает более чем 10% вероятность, что ИИ может привести к вымиранию человека или аналогичному катастрофическому сокращению потенциала человечества». Институт Future of Life также опубликовал открытое письмо под названием «Пауза гигантских экспериментов по ИИ», в котором говорилось, что «мы призываем всех лабораторий искусственного интеллекта, чтобы немедленно остановиться в течение как минимум 6 месяцев, обучение систем ИИ более мощно, чем GPT-4». У него более 30 000 подписавших. Тем не менее, в разработке ИИ не было паузы. Openai заявляет, что «строительство безопасного и полезного AGI — это наша миссия».

Нет никакого консенсуса по поводу того, что такое Superintelligence ИИ или как скоро — если когда -либо — это станет реальностью. У технических компаний еще есть время, чтобы изменить курс. Они могут даже подумать о том, нужна ли нам суперинтеллигентность ИИ вообще. Как сказал профессор Ямпольски в вопросах и ответах с Университетом Луисвилля: «Мы можем получить большинство преимуществ, которые мы хотим от узкого ИИ, систем, разработанных для конкретных задач: разработать лекарство, водить машину. Они не должны быть умнее, чем самые умные из нас, вместе».