В словаре Уильяма Шекспира около 12000 слов. В словаре представителя людоедского племени «Мумбо-Юмбо» около трехсот слов. Эллочке Щукиной из известной книги «12 стульев» с легкостью хватало тридцати слов, чтобы выразить все ее эмоции.
Человеку легко понять речь Эллочки. Но если говорить о компьютере, то он скорее бы смог понять не Эллочку, а Шекспира. Людям достаточно понимания контекста и интонации — остальное мы можем додумать, — но компьютер должен четко понимать каждое слово и каждый термин. Желательно, чтобы не было синонимов. Чем больше за каждым словом скрыто образов, тем труднее его понять. Зависимость человеческих слов от контекста и интонации только одна из трудностей обучения естественному языку искусственного интеллекта. Если лук съедобный отличить от лука стреляющего можно, если будет в наличии полнота описания ситуации, то такие моменты, когда при помощи иронии отрицается смысл или говорящий задает риторический вопрос, - такое можно распознать лишь по интонации. Также некоторую сложность может создать порядок слов в предложении или синтаксис.
Однако Игорь Мордач, сотрудник американской лаборатории искусственного интеллекта OpenAI, пришел к решению, что язык Эллочки— вовсе не тупиковый путь, а пример, на котором боты способны для своего общения выстроить язык, а потом поймут и нас. Но он пожалел и тридцати слов для компьютерной Эллочки. В своем эксперименте он дал компьютерной программе задание создавать язык «с нуля».
В поисках универсального языка общения с машинами
В настоящий момент у лидеров когнитивных систем (Наносемантика, Microsoft, ABBYY, Google, IBM Watson) точность распознавания естественного языка дает возможность в общем понимать смысл и давать ответ на письменный вопрос, если предметная база знаний заранее определена, однакона самом деле разговор, в котором точность распознавания фраз составляет даже 90%,довольно утомительный. В ситуации обычной разговорной речь, которая насыщена междометиями и часто проходит в большой компании с пересекающимися диалогами, бот по способности поддерживать беседу оказывается на уровне четырехлетнего ребенка.
Наличие у программ способности реагировать с точностью на смысл фраз могло бы решить многие проблемы интерфейса, а значит,можно было бы к любой простой человеческой задаче подключить ботов (агентов искусственного интеллекта). И в настоящий момент существует диалог с машинами— например, общение телевизора происходит на языке пульта. Но очень мало команд понимает. Причем и их понимает лишь после того, как они будут запрограммированы. Данный простой пример ясно показывает, что для гибкого и быстрого общения с многоцелевыми устройствами и программами (хотя бы роботами), следует убрать посредников из диалога. Среди которых, увы, и программисты.
Оптимисты компьютерной лингвистики связывают надежды с нейросетями. Они предполагают, что проблема состоит лишь в необходимости обрабатывать большое количество примеров. Оппонентами задача считается неразрешимой. Не столько по причине масштаба обучения, сколько из-за того, что эта задача равнозначна созданию у машин сознания. Примеры общающихся обезьян или дельфинов, которые умеют считать, каждой из сторон трактуются себе на пользу — одни их рассматривают в качестве перспективе, другие в качестве тупика.
Подход, который взят за основу Игорем Мордачем: пусть машины научатся сначала сами общаться на создаваемом ими же языке. Выработка своего языка даст возможность программным агентам искусственного интеллекта лучше разобраться в алгоритме подстройки терминов под новые смыслы, правила фразообразования и пользоваться этими знаниями, чтобы беседовать с людьми. Именно таким образом поставил задачу Мордач, который прежде работал специалистом по созданию роботов-киногероев. Учитывая этот бекграунд Игорь пришел к решению, что обучение движениям содержит алгоритмы сбора информации и её частичного одновременного использования, которыми можно пользоваться в любом обучении.
Для обучения языку ботов (программных агентов) поместили в условную вселенную «белого квадрата», задали им энергию движения,цели и возможность обрабатывать опыт соотнесения себя с целью. Первоначально у ботов был личный опыт успеха, небольшой набор команд действия, а также им дали способ обмена информацией — при помощи близкого «тактильного контакта» или при помощи дистанционного прообраза «слуха и зрения» (здесь будет уместней пользоваться термином направление информационного потока). Предназначением ботов в условной вселенной «белого квадрата» было достичь определенной точки самому, сообщить другому агенту свою цель, обменяться целями, затолкать другого агента к цели при отсутствии информационного обмен а между ними. Цели и боты отличались размером или цветом.
В эксперименте Open AI измеряемым параметром успешности проб и ошибок были факт и скорость достижения целей. Они могли быть бездействие или движение определенной точки (непосредственного контакта с целью или контакта через других агентов) в виртуальном мире белого квадрата. Чем быстрее цель достигалась, тем полезнее признавался используемый список терминов в текущем диалоге целей. Цели и успех были как коллективные, так и индивидуальные.
Пока боты выполняли задачи, они обогатили языковой запас новыми понятиями, которые условно соответствуют человеческим — от терминов движения до понятий: левее, правее,ниже, выше. Мордач рассчитывает, что устанавливая правила словообразования, боты сумеют легче «понимать» в человеческих языках такие же правила. В том числе обучаясь точности использования сравнительных и неопределенных терминов. Искусственный интеллект плохо понимает обобщенные и абстрактные термины. Точнее он вообще ничего не понимает, но с какими то фразами он готов работать, а для других требуется уточняющая информация. В выражении «машина едет быстро» как минимум слово «быстро» — нуждается в измерении. Даже в понятиях ПДД «быстро» — это все равно массив значений, которых вписывается в какой-то интервал. Точнее несколько интервалов — для сельской местности,города и автобанов.
Нейросети, безусловно, умеют работать с неопределенными терминами, но их обучение обычно начинается не с нуля, содержит ряд стартовых правил обработки, а также не имеет зависимости накопления сигнального опыта от типа канала, по которому информация передается. Это основные новинки экспериментов Мордача.
Примечательный момент состоит ещё и в том, что успех каждого бота рассчитывался как доля от успеха всех ботов, поощряющая сотрудничество при достижении цели. То есть качество словарного запаса оценивалось по совокупности используемого языка. Получается, кто-то должен был обязательно собирать и сообщать второстепенные обстоятельства достижения цели, которые в случае индивидуального выполнения целей каждым носителем мешали бы достичь оных. Статистическое правило 20/80 — получение 20% информации обеспечивают 80% достижения цели — работает на уровне индивидуального субъекта, но в коллективе кто-то всегда должен свои 100% собранной информации отдать на дополнительные 1% достижения цели.
Все случаи «невербальной» и «вербальной» контактной коммуникации ботов при исследовании Мордача показаны в видео:
Рукотворная и незаметная Матрица как итог ботовского общения
Основной идеей Мордача является сделать так, чтобы постигая «окружающий мир», боты создали язык, необходимый для этого постижения. В его концепции язык — это результат действий. Иные ученые обращают внимание на то, что развитый язык и способность общения на абстрактный темы позволит машинам создавать свои идеи, описывать и творить новые сущности, ранее не существующие. Тут недалеко и от преобразования нашего мира.
Способность понимать естественный язык считается тесно связанной с наличием у субъекта общения сознания. Приведет ли умение понимать смысл сказанного к появлению сознания у машин? Возможно только обладающий человекоподобным созданием субъект может полностью понимать естественный язык, а создание языка ботов в их собственной среде как раз к разумным ботам в той или иной версии агента Смита и приведет.
Установка ботами приоритетов по ходу обучения противоречит инженерному принципу надежности и предсказуемости работы машин. Непредсказуемость приоритетов, способность фантазировать, самообучение, скрытность общения ботов для человека — уже дали о себе знать в предыдущих экспериментах Open AI. Не имея обязательной конечной цели, программы придумывали себе неожиданные приоритеты по ходу обучения. В эксперименте по виртуальным лодочным гонкам выполнение сопутствующих задач стало для ботов выгоднее 1 места и вообще прохождения гонки до конца. Выполнение попутных задач приносило на 20% больше очков.
Знакомо, не правда ли? Роберт Шекли описал это 65 лет назад в известном рассказе «Страж-птица», которые от предупреждения убийств перешли к блокировке любой активности на Земле, игнорируя иные приоритеты и задачи ради основной:
Джексон зевнул и остановил машину у обочины. Он не заметил в небе сверкающей точки. Ему незачем было остерегаться. Ведь по всем человеческим понятиям он вовсе не замышлял убийства.
Он протянул руку, хотел выключить зажигание… И что-то отбросило его к стенке кабины.
— Дура железная, — сказал он повисшей над ним механической птице. Автомобиль не живой. Я вовсе не хочу его убить.
Но страж-птица знала одно: некоторые действия прекращают деятельность организма. Автомобиль, безусловно, деятельный организм, Ведь он из металла, как и сама страж-птица, не так ли? И при этом движется…
Эксцессом создания собственного языка у ботов может стать создание ими собственной виртуальной вселенной. По крайней мере в истории человечества такие прецеденты есть. Процитирую Толкиена:
Изобретение языков является основой моих трудов. «Истории» были написаны более для того, чтобы создать мир для этих языков, а не наоборот. Для меня сначала возникает слово, а затем — история, связанная с ним. Я бы предпочел писать «по-эльфийски». Но, безусловно, такая книга, как «Властелин Колец» подверглась серьёзной редактуре, и я оставил там ровно столько «языков», сколько мог переварить читатель (хотя сейчас я узнаю, что многие хотели бы большего). [...] В любом случае, для меня это во многом эссе по «лингвистической эстетике», как я иногда отвечаю людям, которые спрашивают меня, о чём я написал свою книгу.
Того, что машины начнут думать раньше, чем мы это поймем, опасаются и в Open AI. Если же у ботов будет ещё и свой язык, то люди проворонят этот момент почти наверняка. Поэтому у Мордача задача не только создать ботовский язык, но и создать переводчик на человеческий. Сначала конечно на английский.
Отвечая на подобные опасения, Игорь приводит контаргументом известный мысленный эксперимент в области философии сознания и философии искусственного интеллекта под названием «китайская комната», опубликованный Джоном Сёрлом в 1980 году. Суть утверждения Серла в том, что любое полноценное общение теоретически вполне возможно без сознания, но с использованием для ответов достаточно подробных правил интерпретации вопросов собеседника. Более общий вывод Сёрла говорит о том, что любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию.
В таком контексте собственный язык и собственная виртуальная вселенная совершенно не означает наличия сознания у ее агентов и объектов. Как в компьютерных играх. Или, как считают некоторые, — как у человека, сознание которого только семантический шлюз между четким «искусственным» языком внутри мозга и естественным шумом сигналов внешнего мира.
Комментарии (0)