И все же, несмотря на все эти победы, какими бы они ни были впечатляющими, речь здесь идет в большей степени об использовании грубой вычислительной мощности и о тренировочных алгоритмах, нежели о настоящем искусственном интеллекте. Родни Брукс-бывший профессор робототехники Массачусетского технологического института, который является одним из основателей компании iRobot, а позже одним из основателей компании Rethink Robotics, утверждает, что обучение алгоритма игре в сложную стратегическую головоломку –не является интеллектом. По крайней мере, он не такой, каким люди представляют его.
Эксперт говорит, что каким бы сильным ни показал себя Alpha Go при выполнении перед ним поставленной задачи, на самом деле ни на что другоеон не способен. Более того, он таким образом настроен, что способен играть в го только на обычном поле 19 x 19. Брукс в интервью порталу Tech Crunch рассказал, как имел недавно возможность побеседовать с командой из DeepMind и выяснить одну довольно интересную деталь. На вопрос о том, что произошло бы, если бы организаторы поменяли для соревнования размер доски го и увеличили ее до 29 x 29 клеток, команда AlphaGo ему призналась, что даже самое маленькое изменение игрового поля привело бы к тому, что «нам настал конец».
«Я считаю, что люди видят, насколько хорошо справляется алгоритм с одной задачей, и, видимо, тут же думают, что он может настолько же эффективно выполнять другие задачи. Но все дело в том, что он не может», — говорит Брукс.
Грубый интеллект
В интервью Дэвину Колдвею на мероприятии Tech Crunch Disrupt в мае 2017 года Каспаров сказал, что разработка компьютера, который способен на мировом уровне играть в шахматы, – это одно, но совсем другое назвать подобный компьютер подлинным искусственным интеллектом, потому что он им не является. Это обычная машина, бросающая всю свою вычислительную мощность на решение проблемы, с которой она привыкла справляться лучше всего.
«В шахматах машины побеждают из-за возможности глубокого вычислительного расчета. Они могут стать полностью непобедимыми при наличии очень большой базы данных, более логичных алгоритмов и самых быстрых аппаратных средств. Но они лишены понимания. Они не распознают стратегические шаблоны. Машины не имеют цели», — сказал Каспаров.
ГилПратт, генеральный директор ToyotaInstitute, отдела компании Toyota, который занимается вопросами и проектами, связанными с искусственным интеллектом и его использованием в беспилотных автомобилях и домашних роботах, такжеучаствовал в интервью TechCrunch в рамках мероприятия Robotics Session. Как он полагает, тот страх, который мы слышим от широкого круга людей, таких как, например, Илон Маск, который недавно назвал искусственный интеллект «экзистенциальной угрозой человечеству», может быть обусловлен не более чем теми антиутопичными описаниями мира, которые научная фантастика нам предлагает.
«Наши современные системы глубинного обучения хороши в выполнении задач, которые перед ними поставлены, лишь настолько, насколько мы их сами создали. Но на самом деле они очень узкоспециализированы и по своим масштабамкрошечны. Так что я считаю важным в контексте этой темы каждый раз упоминать и то, насколько они хороши, и то, насколько они малоэффективны на самом деле. А также то, насколько мы далеки от того момента, когда эти системы начнут представлять ту угрозу, о которой Илон Маск и остальные говорят», — сказал Пратт.
В свою очередь, Брукс отметил на Tech Crunch Robotics Session, что вообще среди людей можно заметить тенденцию думать, что если алгоритм может справляться с задачей «икс», то он, по-видимому, настолько же умный, как человек.
«Я считаю, что причина, по которой такие люди, как Илон Маск, совершают данную ошибку, заключается в следующем. Когда перед нами человек, очень хорошо справляющийся с задачей, поставленной перед ним, мы осознаем, что онв этом деле обладает высокой компетенцией. Я думаю я, что люди пытаются применить ту же самую модель и к машинному обучению. И в этом как раз и заключена самая большая ошибка», — рассказывает Брукс.
Глава компании Facebook Марк Цукерберг недавно провел прямую трансляцию, в ходе которой так же подверг критике комментарии Илона Маска, он назвал их «довольно безответственными». Как полагает Цукерберг, искусственный интеллект сможет сильно улучшить нашу жизнь. Маск в свою очередь не стал отмалчиваться и ответил Цукербергу, что у того «ограниченное понимание» проблем искусственного интеллекта. Тема еще не закрыта, и Масксказал, что чуть позже более подробно сможет ответить на нападки со стороны коллег в IT-индустрии.
К слову, Маск не единственный, кто считает, что искусственный интеллект может нести потенциальную угрозу. Физик Стивен Хокинг и философ Ник Бостром тоже выражают свою озабоченность о потенциале проникновения искусственного интеллекта в уклад жизни человечества. Но, скорее всего, они говорят о более генерализированном искусственном интеллекте. О том, который изучают в таких лабораториях, как Facebook AI Research, DeepMind и Maluuba, нежели о более узкоспециализированном ИИ, первые зачатки которого мы можем видеть уже сегодня.
Брукс также отмечает, что многие из критиков искусственного интеллекта даже не работают в этой сфере, и предположил, что эти люди просто не понимают, насколько сложным бывает поиск решения каждой отдельной задачи в этой области.
«На самом деле людей, считающих искусственный интеллект экзистенциальной угрозой, не так много. Стивен Хокинг, британский астрофизик и астроном Мартин Рис… и еще несколько человек. Ирония в том, что большинство из них объединяет одна особенность – они даже не работают в сфере искусственного интеллекта», — сказал Брукс.
«Для тех же нас, кто работает с искусственным интеллектом, вполне очевидно, насколько сложным бывает добиться работы чего-то на уровне готового продукта».
Неправильное представление искусственного интеллекта
Часть проблемы исходит еще и из того факта, что мы называем все это «искусственным интеллектом». Правда в том, что этот «интеллект» совсем не похож на человеческий интеллект, который в справочниках и лексических словарях обычно описывается как «способность к обучению, пониманию и приспосабливаемости к новым ситуациям».
Паскаль Кауфман, генеральный директор Starmind, стартапа, предлагающего помощь другим компаниям в использовании коллективного человеческого интеллекта в поисках решений проблем в сфере бизнеса, в течение пятнадцати последних лет изучал нейробиологию. Человеческий мозг и компьютер, отмечает Кауфман, работают совсем по-разному, и было бы очевидной ошибкой их сравнивать.
«Аналогия – мозг работает как компьютер – очень опасна и стоит препятствием в прогрессе развития искусственного интеллекта», — говорит Кауфман.
Эксперт также считает, что мы не продвинемся в понимании человеческого интеллекта, если будем рассматривать его в технологическом плане.
«Это заблуждение, что алгоритмы работают как человеческий мозг. Людям просто нравятся алгоритмы, и поэтому они думают, что мозг можно описать с их помощь. Я же считаю, что это в корне неверно», — добавляет Кауфман.
Если что-то пойдет не так
Есть множество примеров, когда алгоритмы искусственного интеллекта оказываются далеко не так умны, как мы привыкли о них думать. И одним из, пожалуй, самых бесславных может служить ИИ-алгоритм Тэй (Tay), созданный командой разработки ИИ-систем компании Microsoft и вышедший из-под контроля в прошлом году. Потребовалось менее одного дня, чтобы превратить бота в настоящего расиста. Эксперты говорят, что это может произойти с любой системой искусственного интеллекта, когда ей предлагают плохие примеры для подражания. В случае с Тэй, она попала под влияние расистских и других оскорбительных лексических словоформ. А так как она была запрограммирована на «обучение» и «зеркальное поведение», то вскоре вышла из-под контроля исследователей.
В рамках получившего широкое распространение исследования специалистов Корнеллского и Вайомингского университетов было установлено, что очень легко обмануть алгоритмы, натренированные на идентификацию цифровых изображений. Специалисты обнаружили, что изображение, которое выглядело как «скремблированная бессмыслица» для людей, алгоритмом определялось как изображение какого-нибудь повседневного объекта вроде «школьного автобуса».
Согласно статье, опубликованной в MIT TechReview и описывавшей этот проект, не до конца понятно, почему алгоритм можно обмануть тем образом, которым это делали исследователи. Что удалось выяснить, так это то, что люди научились распознавать, что перед ними находится – либо самодостаточная картинка, либо некое непонятное изображение. Алгоритмы же, в свою очередь, анализирующие пиксели, легче поддаются манипуляции и обману.
Что же касается самоуправляемых автомобилей, то здесь оказывается все гораздо сложнее. Есть некоторые вещи, которые человек понимает, когда готовится столкнуться с определенными ситуациями. Машину же этому обучить будет очень сложно. В большой статье, опубликованной в одном из автомобильных блогов Родни Бруксом в январе этого года, приводятся несколько примеров таких ситуаций, включая ту, в которой описывается, как беспилотный автомобиль приближается к дорожному знаку «Стоп», расположенному рядом с пешеходным переходом в городе, в самом начале которого стоят и общаются взрослый с ребенком.
Алгоритм, скорее всего, будет настроен таким образом, чтобы дождаться перехода пешеходов через дорогу. Но что, если у данных пешеходов и в мыслях не было переходить дорогу, так как они стоят и ждут, скажем, школьный автобус? Водитель-человек в этом случае мог бы посигналить пешеходам, которые в ответ могли бы помахать ему рукой, сообщая о том, что тот может проезжать. Беспилотный же автомобиль в подобной ситуации может просто застрять намертво, бесконечно ожидая перехода людей через дорогу, потому что алгоритм не обладает пониманием таких уникальных человеческих сигналов, говорит Брукс.
Каждый из подобных примеров показывает нам, как далеко нам еще предстоит продвинуться в развитии алгоритмов искусственного интеллекта. Насколько сильно смогут преуспеть разработчики генерализованного искусственного интеллекта – это еще вопрос. Существуют вещи, с которыми человек может справиться запросто, но для обучения алгоритма это будет настоящей пыткой. Почему? Потому что мы, люди, не ограничены в нашем обучении набором определенных задач.
Комментарии (0)