Вот почему ученые думают, что вы должны беспокоиться об искусственном интеллекте

За последние несколько месяцев вы, возможно, читали репортаж о статье, в соавторстве со Стивеном Хокингом, в которой обсуждались риски, связанные с искусственным интеллектом. В статье предполагается, что ИИ может представлять серьезную опасность для человечества. Хокинг не одинок — Элон Маск и Питер Тиль — интеллектуальные общественные деятели, которые выразили аналогичные опасения (Тиль вложил более 1,3 миллиона долларов в исследование проблемы и возможных решений).

Освещение статьи Хокинга и комментариев Маск было, если не сказать слишком тонко, немного веселым. Тон был очень сильным: «Посмотрите на эту странную вещь, о которой беспокоятся все эти гики». Мало внимания уделяется идее, что, если некоторые из самых умных людей на Земле предупреждают вас, что что-то может быть очень опасным, это может быть просто стоит послушать.

Это понятно — захват искусственного интеллекта миром, безусловно, звучит очень странно и неправдоподобно, возможно, из-за того огромного внимания, которое авторы-фантасты уделяют этой идее. Итак, что же так напугало всех этих номинально здравомыслящих, рациональных людей?

Что такое интеллект?

Чтобы говорить об опасности искусственного интеллекта, может быть полезно понять, что такое интеллект. Чтобы лучше понять проблему, давайте взглянем на игрушечную архитектуру искусственного интеллекта, которую используют исследователи, изучающие теорию рассуждений. Этот игрушечный AI называется AIXI и обладает рядом полезных свойств. Его цели могут быть произвольными, он хорошо масштабируется с вычислительной мощностью, а его внутренний дизайн очень чистый и понятный.

Кроме того, вы можете реализовать простые, практичные версии архитектуры, которые могут, например, играть в Pacman, если хотите. AIXI — это продукт исследователя искусственного интеллекта по имени Маркус Хаттер, возможно, главный эксперт по алгоритмическому интеллекту. Это он говорит в видео выше.

AIXI удивительно прост: в нем три основных компонента: ученик, планировщик, а также вспомогательная функция.

  • ученик принимает строки битов, которые соответствуют входным данным о внешнем мире, и просматривает компьютерные программы, пока не находит те, которые производят свои наблюдения в качестве выходных данных. Эти программы вместе позволяют ему делать предположения о том, как будет выглядеть будущее, просто выполняя каждую программу вперед и взвешивая вероятность результата по длине программы (реализация бритвы Оккама).
  • планировщик просматривает возможные действия, которые может предпринять агент, и использует модуль ученика, чтобы предсказать, что произойдет, если он предпримет каждое из них. Затем он оценивает их в соответствии с тем, насколько хорошими или плохими являются предсказанные результаты, и выбирает порядок действий, который максимизирует добротность ожидаемого результата, умноженную на ожидаемую вероятность его достижения.
  • Последний модуль, вспомогательная функция, это простая программа, которая берет описание будущего состояния мира и вычисляет для него оценку полезности. Этот показатель полезности показывает, насколько хорош или плох этот результат, и используется планировщиком для оценки будущего состояния мира. Функция полезности может быть произвольной.
  • Взятые вместе, эти три компонента образуют оптимизатор, который оптимизирует для конкретной цели, независимо от мира, в котором он находится.

Эта простая модель представляет собой базовое определение интеллектуального агента. Агент изучает свою среду, строит ее модели, а затем использует эти модели, чтобы найти курс действий, который максимизирует шансы того, что он получит то, что хочет. AIXI похожа по структуре на AI, который играет в шахматы или другие игры с известными правилами, за исключением того, что он может определять правила игры, играя в нее, начиная с нулевого уровня знаний.

AIXI, имея достаточно времени для вычислений, может научиться оптимизировать любую систему для любой цели, какой бы сложной она ни была. Это в целом интеллектуальный алгоритм. Обратите внимание, что это не то же самое, что обладать интеллектом, подобным человеку (биологически вдохновленный ИИ — это совсем другая тема

). Другими словами, AIXI может перехитрить любого человека при выполнении любой интеллектуальной задачи (при наличии достаточной вычислительной мощности), но он может не осознавать свою победу

,

headsculpture

Как практический ИИ, у AIXI много проблем. Во-первых, у него нет возможности найти те программы, которые выдают интересующий его вывод. Это алгоритм перебора, что означает, что он не практичен, если у вас нет случайно созданного произвольно мощного компьютера. Любая фактическая реализация AIXI по необходимости является приблизительной, и (сегодня), как правило, довольно грубой. Тем не менее, AIXI дает нам теоретическое представление о том, как мог бы выглядеть мощный искусственный интеллект, и как он мог бы рассуждать.

Пространство ценностей

Если вы занимались программированием

Вы знаете, что компьютеры противны, педантично и механически буквальны. Машина не знает и не заботится о том, что вы хотите от нее: она делает только то, что ей было сказано. Это важное понятие, когда речь идет об искусственном интеллекте.

Имея это в виду, представьте, что вы изобрели мощный искусственный интеллект — вы придумали умные алгоритмы для создания гипотез, соответствующих вашим данным, и для создания хороших планов кандидатов. Ваш ИИ может решать общие проблемы и может делать это эффективно на современном компьютерном оборудовании.

Теперь пришло время выбрать вспомогательную функцию, которая будет определять, какой ИИ имеет значение. Что вы должны попросить это оценить? Помните, что машина будет неприятно, педантично буквально относиться к любой функции, которую вы просите ее максимизировать, и никогда не остановится — в машине нет призрака, который когда-либо «проснется» и решит изменить свою служебную функцию, независимо от того, сколько повышение эффективности это делает по своему усмотрению.

Элиэзер Юдковски выразился так:

Как и во всем компьютерном программировании, фундаментальная проблема и существенная трудность AGI заключается в том, что если мы напишем неправильный код, ИИ не будет автоматически просматривать наш код, отмечать ошибки, выяснять, что мы действительно хотели сказать, и делать это. вместо. Непрограммисты иногда представляют AGI или компьютерные программы в целом как аналог слуги, который безоговорочно выполняет приказы. Но дело не в том, что ИИ абсолютно послушен своему коду; скорее, ИИ — это просто код.

Если вы пытаетесь управлять фабрикой, и вы приказываете машине ценить изготовление скрепок, а затем предоставляете ей контроль над кучей фабричных роботов, вы можете вернуться на следующий день, чтобы обнаружить, что в ней исчерпаны все другие виды сырья, убил всех ваших сотрудников и сделал скрепки из их останков. Если, пытаясь исправить свою ошибку, вы перепрограммируете машину, чтобы просто сделать всех счастливыми, вы можете вернуться на следующий день и обнаружить, что она вводит провода в мозг людей.

скрепки

Дело в том, что у людей есть много сложных ценностей, которые, как мы предполагаем, неявно разделяются с другими умами. Мы ценим деньги, но ценим человеческую жизнь больше. Мы хотим быть счастливыми, но для этого не обязательно вставлять провода в мозг. Мы не чувствуем необходимости разъяснять эти вещи, когда мы даем инструкции другим людям. Однако вы не можете делать подобные предположения при разработке функции полезности машины. Лучшие решения в рамках бездушной математики простой функции полезности часто являются решениями, которые человеческие существа отказались бы от морально ужасающих.

Разрешение интеллектуальному механизму максимизировать наивную функцию полезности почти всегда будет катастрофическим. Как говорит оксфордский философ Ник Бостом,

Мы не можем безболезненно предположить, что суперинтеллект всегда будет иметь общие конечные ценности, стереотипно связанные с мудростью и интеллектуальным развитием человека, — научное любопытство, доброжелательная забота о других, духовное просвещение и созерцание, отказ от материального постижения, вкус к изысканной культуре или простые радости в жизни, смирение и самоотверженность, и так далее.

Что еще хуже, очень и очень трудно определить полный и подробный список всего, что люди ценят. В этом вопросе много аспектов, и забывание даже одного из них потенциально катастрофично. Даже среди тех, кого мы знаем, есть тонкости и сложности, которые затрудняют их запись в виде чистых систем уравнений, которые мы можем дать машине в качестве функции полезности.

Некоторые люди, прочитав это, приходят к выводу, что создание ИИ с помощью служебных функций — ужасная идея, и мы должны просто разработать их по-другому. Здесь также есть плохие новости — формально вы можете доказать, что любой агент, у которого нет чего-то эквивалентного функции полезности, не может иметь последовательных предпочтений относительно будущего.

Рекурсивное самосовершенствование

Одно из решений вышеупомянутой дилеммы состоит в том, чтобы не дать агентам ИИ возможность причинять людям вред: дать им только те ресурсы, которые им необходимы для решения проблемы так, как вы хотите, чтобы она была решена, пристально следить за ними и держать их подальше от возможностей причинить большой вред. К сожалению, наша способность управлять интеллектуальными машинами весьма сомнительна.

Даже если они не намного умнее нас, существует возможность для «начальной загрузки» компьютера — собрать лучшее оборудование или усовершенствовать собственный код, что сделает его еще умнее. Это может позволить машине перепрыгнуть человеческий интеллект на много порядков, опередив людей в том же смысле, что люди перехитривают кошек. Этот сценарий был впервые предложен человеком по имени И. Дж. Гуд, который работал над проектом криптоанализа Enigma с Аланом Тьюрингом во время Второй мировой войны. Он назвал это «разведывательным взрывом» и описал этот вопрос так:

Пусть сверхинтеллектуальная машина будет определена как машина, которая может намного превзойти всю интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхинтеллектуальные машины могут проектировать еще более совершенные машины; тогда, несомненно, произойдет «взрыв интеллекта», и интеллект человека останется далеко позади. Таким образом, первая сверхинтеллектуальная машина — это последнее изобретение, которое человек когда-либо должен делать, при условии, что машина достаточно послушна.

Не гарантируется, что в нашей вселенной возможен взрыв интеллекта, но он кажется вероятным. Со временем компьютеры становятся быстрее и получают базовые знания о наращивании интеллекта. Это означает, что потребность в ресурсах, чтобы сделать последний прыжок к общему, повышающемуся интеллектуальному уровню, падает все ниже и ниже. В какой-то момент мы окажемся в мире, в котором миллионы людей могут найти Best Buy и подобрать аппаратную и техническую литературу, необходимую для создания самосовершенствующегося искусственного интеллекта, который, как мы уже создали, может быть очень опасно. Представьте себе мир, в котором вы могли бы делать атомные бомбы из палок и камней. Такое будущее мы обсуждаем.

И, если машина действительно совершает этот прыжок, она может очень быстро опередить человеческий вид с точки зрения интеллектуальной продуктивности, решая проблемы, которые не может решить миллиард людей, так же, как люди могут решать проблемы, которые может миллиард кошек ». т.

Он может разработать мощных роботов (или био, или нанотехнологии) и сравнительно быстро обрести способность изменять мир так, как ему нравится, и мы мало что сможем с этим поделать. Такой интеллект мог бы лишить Землю и остальную часть Солнечной системы запасных частей без особых проблем на пути к тому, что мы сказали. Кажется вероятным, что такое развитие событий будет катастрофическим для человечества. Искусственный интеллект не должен быть злым, чтобы разрушить мир, просто катастрофически равнодушен.

Как говорится, «машина не любит и не ненавидит вас, но вы сделаны из атомов, которые она может использовать для других целей».

Оценка рисков и смягчение их последствий

Итак, если мы признаем, что проектирование мощного искусственного интеллекта, который максимизирует простую функцию полезности, плохо, то в чем проблема на самом деле? Сколько у нас есть времени, прежде чем станет возможным создавать такие машины? Это, конечно, сложно сказать.

Разработчики искусственного интеллекта делают успехи.

Машины, которые мы строим, и проблемы, которые они могут решить, постоянно расширяются. В 1997 году Deep Blue мог играть в шахматы на уровне выше человеческого гроссмейстера. В 2011 году IBM Watson мог читать и синтезировать достаточно информации достаточно глубоко и быстро, чтобы побеждать лучших игроков в открытой игре в вопросы и ответы, пронизанной каламбурами и игрой слов — это большой прогресс за четырнадцать лет.

Прямо сейчас Google вкладывает значительные средства в исследование глубокого обучения, методики, которая позволяет создавать мощные нейронные сети путем построения цепочек более простых нейронных сетей. Эти инвестиции позволяют ему добиться серьезного прогресса в распознавании речи и изображений. Их последнее приобретение в этой области — стартап Deep Learning под названием DeepMind, за который они заплатили около 400 миллионов долларов. Как часть условий сделки, Google согласилась создать совет по этике, чтобы обеспечить безопасное развитие их технологии ИИ.

нейронная сеть

В то же время IBM разрабатывает Watson 2.0 и 3.0, системы, способные обрабатывать изображения и видео и выступать в защиту выводов. Они дали простую, раннюю демонстрацию способности Уотсона синтезировать аргументы за и против темы в видео демонстрации ниже. Результаты несовершенны, но, несмотря на это, впечатляющий шаг.

Ни одна из этих технологий сама по себе не представляет опасности: искусственный интеллект как область все еще борется за то, чтобы соответствовать способностям, освоенным маленькими детьми. Компьютерное программирование и дизайн искусственного интеллекта — это очень сложный, высокоуровневый когнитивный навык, и он, вероятно, станет последней человеческой задачей, которой овладеют машины. Прежде чем мы доберемся до этой точки, у нас также будут вездесущие машины, которые могут управлять

практиковать медицину и юриспруденцию, а также, возможно, и другие вещи, которые имеют серьезные экономические последствия

Время, необходимое нам, чтобы добраться до переломного момента самосовершенствования, зависит только от того, насколько быстро у нас появляются хорошие идеи. Прогнозировать технологические достижения такого рода, как известно, сложно. Не кажется неразумным, что мы сможем создать сильный ИИ за двадцать лет, но также не представляется необоснованным, что это может занять восемьдесят лет. В любом случае, это произойдет в конце концов, и есть основания полагать, что когда это произойдет, это будет чрезвычайно опасно.

Итак, если мы примем, что это будет проблемой, что мы можем с этим поделать? Ответ заключается в том, чтобы убедиться, что первые интеллектуальные машины безопасны, чтобы они могли загружаться до значительного уровня интеллекта, а затем защитить нас от небезопасных машин, созданных позже. Эта «безопасность» определяется тем, что мы разделяем человеческие ценности и готовы защищать и помогать человечеству.

Поскольку на самом деле мы не можем сесть и запрограммировать человеческие ценности в машину, возможно, потребуется разработать служебную функцию, которая потребует от машины наблюдать за людьми, определять наши ценности и затем пытаться максимизировать их. Для того чтобы сделать этот процесс разработки безопасным, также может быть полезно разработать искусственный интеллект, который специально разработан так, чтобы не иметь предпочтений относительно их функций полезности, что позволяет нам исправлять их или отключать без сопротивления, если они начинают сбиваться с пути во время развитие.

stainedneurons

Многие из проблем, которые нам нужно решить для построения безопасного машинного интеллекта, математически сложны, но есть основания полагать, что их можно решить. Над этой проблемой работают несколько различных организаций, в том числе Институт будущего человечества в Оксфорде и Научно-исследовательский институт машинного интеллекта (который финансирует Питер Тиль).

MIRI особенно заинтересована в развитии математики, необходимой для создания Дружественного ИИ. Если окажется, что возможен запуск искусственного интеллекта, то сначала разработка такого рода технологии «Дружественного ИИ», если она окажется успешной, может оказаться самой важной вещью, которую когда-либо делали люди.

Как вы думаете, искусственный интеллект опасен? Вы обеспокоены тем, что может принести будущее ИИ? Поделитесь своими мыслями в разделе комментариев ниже!

Авторы изображения: Lwp Kommunikáció Via Flickr, «Нейронная сеть», автор fdecomite, «img_7801», Стив Рейнуотер, «E-Volve», Кеони Кабрал, «new_20x», Роберт Кадмор, «Скрепки», Клиффорд Уоллес

Ссылка на основную публикацию