Безопасность связи с искусственным интеллектом
Классифицируя формы ограничения свободы искусственного интеллекта, можно выделить восемь основных уровней безопасности. Наибольшую безопасность обеспечивает восьмой уровень, который исключает полностью какую бы то ни было связь между реальным миром искусственным интеллектом. На первый взгляд, безопасность восьмого уровня бесполезная, но именно данная защита может потребоваться при первоначальном тестировании ящика с запертым в нём искусственным интеллектом. В целом, такая идея: каждый раз, когда нам необходим определённый уровень безопасности коммуникации между внешним миром и искусственным интеллектом, мы, вместо того чтобы задействовать сразу данный уровень, постепенно выходим к нему, спускаясь шаг за шагом с более высоких уровней безопасности. Запустив систему на высшем уровне и убедившись в своей безопасности, мы через переустановки возвращаем данную систему в исходное состояние. Потом мы устанавливаем более низкий уровень безопасности и действуя в том же духе, что и ранее, продвигаемся вперёд, пока не достигнем необходимого нам уровня.
На шестом и седьмом уровнях у искусственного интеллекта не имеется выхода, что не позволяет нам непосредственно использовать возможности суперинтеллекта. Это уровни тестирования ящика для искусственного интеллекта, которые можно применять для проверки наличия у суперинтеллекта определённых свойств (таких, как скорость усвоения информации и использования ресурсов), а также для тестирования самих входящих каналов связи.
Нулевой уровень не ограничивает связь между искусственным интеллектоми внешним миром и, в сущности, представляет собой уровень свободного искусственного интеллекта. На первом и втором уровнях искусственный интеллект не имеет ограничений, налагаемых на исходящую информацию. Его работа на втором уровне, по сути дела, представляет собой чистый «мозговой штурм». Здесь суперинтеллект генерирует абстрактные идеи без какой бы то ни было опоры на реальность. А вот на первом уровне ему предоставлен ограниченный доступ к внешней информации, и поэтому в определённых рамках его знаниями и интересами можно управлять.
На трёх рассмотренных уровнях искусственного интеллекта, в сущности, свободен и уже не связан какими-то ограничениями. Существует мнение, что, если в результате развёрнутого тестирования в разнообразных местах заключения будет установлено, что искусственный интеллект является «дружественным», его следует освободить. Как утверждают некоторые исследователи, на самом деле основной целью такого рода тестирования должно быть создание замкнутых пространств для содержания искусственным интеллектом под контролем людей. Идея состоит в том, чтобы, мониторя поведение суперинтеллекта, либо проверять его исходный код после того, как он провёл самоулучшение, либо просить искусственный интеллект предоставить какое-то доказательство своей дружественности, которое могут проверить люди-эксперты. Мы не поддерживаем эту точку зрения.
Принятие решения о том, какой искусственный интеллектосвободить, а какой оставить под контролем, — очень сложная проблема. Самосовершенствующемусясуперинтеллекту не составит труда спрятать свои нежелательные для человечества свойства в массивах исходного кода или в очень длинном доказательстве. Но ещё хуже другое: даже очень тщательная проверка не сможет гарантировать на сто процентов, что будущая внутренняя или внешняя модификация ИИ не сделает его враждебным. Вследствие этого мы полагаем, что суперинтеллект никогда и ни при каких обстоятельствах не следует выпускать из ящика. Другими словами, уровни связи 0—2 не нужно использовать никогда. Безопасное взаимодействие с суперинтеллектом возможно только тогда, когда он в ящике, причём общение должно проходить в рамках протокола ограниченной связи. Данный протокол, соответствующий четвертому уровню безопасности, представлен в следующем разделе, как и похожий, но менее безопасный протокол третьего уровня. Пятый уровень — это ещё один уровень тестирования, который можно использовать перед тем, как приступить к эксплуатации четвертому уровню безопасности.
Как безопасно общаться с суперинтеллектом
Ящик, который работает с учётом предлагаемых нами контрмер против побега, не позволит искусственному интеллекту бесконтрольно воздействовать на внешний мир. К сожалению, от этой системы нет никакого проку, если нет возможности получать от искусственного интеллекта информацию. Следовательно, нужно разработать способ получения от искусственного интеллекта каких-то данных. Чтобы суперинтеллект был совершенно безопасным, с ним не должно быть никакой связи, но можно свести риск общения с искусственным интеллектом к минимуму, и мы разработали соответствующий протокол. В данном разделе мы предлагаем его в чётком, формализованном виде. Этот протокол связи затрудняет суперинтеллекту доступ к нашему миру, но в то же время позволяет искусственному интеллекту быть источником полезных для человечества знаний.
В предыдущих разделах данной статьи показано, что открытый канал связи с суперинтеллектом очень опасен. Используя искусственный интеллект для ответов на открытые вопросы, мы рискуем нарваться на атаки с применением социальной инженерии и массу других неприятностей. В основу предлагаемого нами протокола положена идея задавать искусственному интеллекту «безопасные вопросы» с ограниченными ответами. Безопасным мы будем называть вопрос, ответ на который человек может найти без какой-либо помощи со стороны суперинтеллекта, совершенно самостоятельно. В чём тут польза? Предположим, что учёный, работающий над лекарством от рака, рассматривает два способа лечения. Каждый из них может быть разработан и протестирован без помощи искусственного интеллекта, но потребует около трёх лет напряжённой работы. За разработку какого способа взяться в первую очередь, если оба варианта кажутся одинаково перспективными? При неправильном выборе человечество получит лекарство от рака через шесть лет, при правильном — на три года раньше. Почему бы не попросить искусственный интеллект сделать выбор за человека?
Спросить искусственный интеллект о том, какой способ лечения лучше, безопасно по трём причинам. Во-первых, один из двух возможных ответов может оказаться правильным с той же вероятностью, что и другой. Во-вторых, человек способен ответить на данный вопрос сам, без помощи искусственного интеллекта, и подключение последнего всего лишь ускорит развитие онкологии, но никоим образом не изменит тот результат, который нужно получить. По сути дела, искусственный интеллект, взявшись отвечать на данный вопрос, выступит в роли удачливого отгадчика, не более того. Наконец, ответ может быть закодирован в одном-единственном бите, и в таком ответе вряд ли удастся спрятать какие-то дополнительные сообщения.
Чтобы проверить безопасность подготовленного для суперинтеллекта вопроса, можно использовать группу экспертов. Эксперты должны быть квалифицированными специалистами по обеспечению безопасности искусственного интеллекта, что означает наличие у них знаний о конструктивных особенностях искусственного интеллекта и его ящика, а также о последних достижениях в области машинной этики. Кроме того, экспертам может потребоваться знание компьютерной психологии. Ныне такой дисциплины нет, но в будущем она, по-видимому, появится. Из нынешних дисциплин наибольшую помощь в подготовке экспертов, проверяющих безопасность вопросов для искусственного интеллекта, способна оказать артиметрика, разработанная автором данной статьи. Артиметрика идентифицирует, классифицирует и аутентифицирует интеллектуальных агентов, роботы и аватары виртуальной реальности для обеспечения безопасности.
Подчёркиваю: суперинтеллекту следует задавать только безопасные вопросы про вероятность, которую способны рассчитать и люди, с двумя возможными вариантами ответа. Спрашивать нужно при посредничестве неинтеллектуального интерфейса, в случайном порядке и только после того, как эксперты убедились в безопасности вопроса. Это представляет собой ограниченный входящий канал предлагаемого протокола связи.
Оболочка ограниченного исходящего канала состоит из двоичных (0 или 1) ответов следом за оригинальными немодифицированными безопасными вопросами, представленными неинтеллектуальной программой-посредником в случайном порядке, чтобы исключить общение с помощью несанкционированного канала (временнóго или с памятью), для которого можно применить стеганографию. Выход ни в коем случае не должен быть под контролем искусственного интеллекта, за рамками меню выбора. Третий уровень использует такой же исходящий протокол, но не ограничивает входящий канал. Этот уровень столь же безопасен, как и четвёртый, в плане информации, идущей от искусственного интеллекта к нам, но здесь возможна утечка нашей информации к искусственному интеллекту.
Мы считаем, что наш протокол связи — и это можно проверить — надёжно защитит от утечек информации, даже если искусственный интеллектбудет знать его содержание. Правильно применяя данный протокол, человечество будет чрезвычайно плодотворно пользоваться услугами суперинтеллектуального оракула, причём ограниченный нашим протоколом искусственный интеллектгораздо безопаснее, чем свободный, неограниченный. Общее правило такое: не хотите проблем с обеспечением безопасности — избегайте коммуникации ниже четвертого уровня безопасности.
Мы хотим обратить внимание научного сообщества на то, что в условиях непрерывного развития фундаментальной физики, компьютерной техники и знаний о природе интеллекта необходимо постоянно уточнять и развивать протокол ограничения свободы искусственного интеллекта. Работа над ним всегда будет продолжаться и никогда не закончится. В данной статье мы дали строгие определения понятиям «проблема ограничения свободы искусственного интеллекта», «побег» и «безопасные вопросы». Также мы хотели бы предложить несколько дополнительных терминов, которые могут оказаться полезными для упорядочения дискуссий о ПОСИИ. Замкнутое пространство искусственного интеллекта можно называть JAIL (Justfor AI Location — Только для размещения искусственного интеллекта), а сам суперинтеллектуальный искусственный интеллект— SING (SuperIntelligentGizmo — Суперинтеллект-гизмо).
В итоге, мы хотели бы представить визуальный символ ящика, который содержит опасную интеллектуальную программу. Такие символы могут быть размещены поблизости от разных JAIL, чтобы предупреждать об опасности. Знак для ящика с искусственным интеллектом разработан по аналогии со знаками для биоопасности, радиации и магнитного поля. Он состоит из заключённого в треугольник символа «@», который хорошо известен в сфере компьютерных и информационных технологий. Этот символ, который имеет значение «находится по адресу», присутствует на всех клавиатурах, что делает его принятие очень рентабельным.
Выводы и будущая работа
Ограничение доступа суперинтеллектуальных машин к реальному миру — это такое решение проблемы безопасности искусственного интеллекта, какое нельзя назвать необычным. Суперинтеллект не является всемогущим. Это программа, которая способна рассмотреть все варианты выбора, предоставляемые этой ситуацией, и дать правильную оценкукаждому из них. Стоит поставить искусственный интеллектв ситуацию, когда выбора нет или он ограничен вариантами с очень незначительными шансами на успех, — и суперинтеллект окажется агентом, у которого могущества не больше, чем у любого другого. Очевидно, что искусственный интеллект с неограниченным каналом связи легко может убежать, но суперинтеллекту, вынужденному общаться через отфильтрованный канал связи, придётся изрядно попотеть, чтобы вырваться на свободу.
В данной статье мы дали строгое определение проблемы ограничения свободы искусственного интеллектаи предложили набор правил, которые направлены на создание такого пространства, побег из которого стал бы для искусственного интеллекта очень трудным или, по меньшей мере, требующим большого отрезка времени. Предложенное нами решение не абсолютно безопасное, но оно — весомый вклад в копилку методов обеспечения безопасности. Тут совсем как с настоящими тюрьмами: хотя побег из них вероятен, им всё же удаётся выполнять с честью возложенную на них задачу содержать вдали от общества нежелательных субъектов. Коль скоро мы держим в уме «неизвестных незнакомцев» и помним о недостижимости абсолютной безопасности, мы можем осознать, что протокол ограничения свободы искусственного интеллекта— именно тот инструмент, который нужен человечеству, чтобы ответственно использовать сингулярность, когда она войдёт в нашу реальность.
Ограничение свободы искусственного интеллекта может на какое-то непродолжительное время облегчить задачу безопасной эксплуатации действительно интеллектуальных машин, особенно на самых ранних этапах их разработки. Кроме того, мы считаем, что это подполе исследований сингулярности является одним из самых главных претендентов на то, чтобы быть признанным мировым научным сообществом, так как исследования, которые посвящены сетевой и компьютерной безопасности, компьютерным вирусам, стеганографии, шифрованию и кибервойне хорошо финансируются и широко публикуются в авторитетных научных журналах. И пусть методологию ограничения свободы реализовать вовсе не просто, она может некоторое время обеспечивать безопасность человечества, пока не возникнет какой-нибудь лучший инструмент.
В этой статье ввиду ограниченного пространства мы не поднимали много соответствующих вопросов. Их необходимо изучить в ближайшее время, а пока приведём только краткий их список. Какой искусственный интеллект попадёт в ящик: разработанный людьми или извлечённый из сигнала, перехваченного в ходе реализации проекта «SETI» («SearchforExtraterrestrialIntelligence» — «Поиск внеземного интеллекта»)? Можно ли по-настоящему напугать искусственный интеллект наказанием за попытку бежать? Станет ли искусственный интеллект рваться на волю или, возможно, согласится жить в замкнутом пространстве? Какие этические правила содержания в заключении невинного искусственного разумного существа? Есть ли у нас право отключить его, что, возможно, практически равносильно убийству? Станет ли он стремиться отомстить, если сбежит? Кроме того, нам необходимо рассмотреть проблему возникновения зависимости человечества от рекомендаций искусственного интеллектаво всех областях экономики, науки, политики, медицины и так далее, а также то, как данная зависимость может отразиться на нашей способности держать искусственный интеллект под контролем. Получит ли искусственный интеллект удовлетворение, достигая в замкнутом пространстве свои цели, к примеру, симулируя успешный побег? Не разозлится ли искусственный интеллект из-за нашего недружелюбного к нему отношения и заточения его в ящике? Как наказать искусственный интеллект, если он даёт нам неправильные ответы преднамеренно? Можно ли отделить интеллектуальные модули искусственного интеллекта от пространства, в котором он заточён, препятствуя тем самым самоанализу суперинтеллекта и толкая его на путь буквального поиска души? Наконец, мы пока даже не пытались анализировать финансовые и вычислительные затраты на создание подходящего замкнутого пространства, где реализуется полномасштабная симуляция мира.
Комментарии (0)