Им нужны твоя одежда, сапоги и мотоцикл
Последние несколько месяцев займут довольно важное место в истории эмансипации машин. Недавно в Британском институте стандартов выпустили документ, который регламентирует этику роботов. Если бы не общие (что, впрочем, неизбежно) формулировки, этот документ мог бы стать полноценным ГОСТом. А континентальным андроидам повезло ещё больше — Европарламент уже с начала лета прошлого года обсуждает возможность сделать роботов практически гражданами. «По меньшей мере некоторые, самые сложные автономные роботы могут получить статус электронных лиц, который наделяет их специфическими обязанностями и правами», — говорится в проекте резолюции, которая была направлена депутатами из Комитета по законодательству своим коллегам.
Про вероятные законы, алгоритмы и этические проблемы, которые регулируют поведение машин, говорят из каждого утюга (вскоре о них станут говорить и сами утюги), но идея прав роботов почти не обсуждается, вероятно потому, что интуитивно кажется абсурдной. Но это лишь на первый взгляд. Европейский проект, хотя и сваливает в одну кучу сразу много не связанных между собой проблем, интересен и важен тем, что впервые этот вопрос ставит на официальном уровне.
Полтора года назад в интернете был популярен ролик, в котором сотрудник принадлежащей Google робототехнической компании Boston Dynamics пинает робота Spot, слегка напоминающего собаку. Видео вызвало бурю возмущения: по всему миру люди выражали возмущение и заступались за машину. В издании The Verge была опубликована статья «Прекратите бить роботов, пока они не начали бить нас», автор которой пугает читателей тем, что недружественный искусственный интеллект, который посмотрел на унижение Spot, может и отомстить. Это аргумент смешной в своей наивности, но существуют и другие, более серьёзные причины не унижать роботов.
Кейт Дарлинг из Массачусетского технологического института (MIT) считает, что социальные роботы, которые вступают в коммуникацию с людьми и принимают их роли на себя, заслуживают юридической защиты. Она создала в защиту своей позиции целый манифест. Люди эмоционально привязываются к роботам и им свойственно их одушевлять, полагает она, а значит, жестокость по отношению к человекообразным роботам необходимо наказывать точно так же, как в обществе наказывают жестокость по отношению к собакам или кошкам. Она поставила эпиграфом к своей статье слова Иммануила Канта: «Тот, кто жесток к животным, ожесточается и по отношению к людям».
Как бы парадоксально это ни звучало, Кейт Дарлинг, скорее всего, будет права и социальные роботы смогут получить юридическую защиту. Всё больше становится умных роботов, с неизбежностью умные роботы станут социальными, и люди, в свою очередь, не смогут их не одушевлять. Алгоритмы поработят людей — если не человеческую волю, то точно человеческие чувства.
Важный член семьи
Физик Марк Тилден десять лет назад сконструировал робота, который будет обезвреживать противопехотные мины. Самый легкий способ обезвредить мину — это наступить на неё, поэтому робот имел несколько ног и на них он бегал по заминированной местности, постепенно теряя одну ногу за другой, перегруппировывался, припадал на бок, неловко переваливался и полз дальше. С точки зрения робототехников, испытание имело абсолютный успех, но армейский полковник, который руководил учениями, остановил их. Ему было очень тяжело спокойно глядеть, как обожжённый и покалеченный робот полз, отталкиваясь от земли своей последней ногой.
Люди испытывают к роботам чувство жалости. Они приписывают моральную ответственность роботам. Люди даже общаются с роботами как с себе подобными. Кристоф Бартнек, новозеландский исследователь, с соавторами принуждал роботов подкупать людей: они специально поддавались в игре «Камень — ножницы — бумага» (испытуемые получали за каждую победу немного денег) в расчёте на то, то им вернут услугу. Только 10% людей рассказали экспериментаторам о том, что случилось, и лишь трое предположили, что робот сломался. Большинству людей то обстоятельство, что робот плетёт интригу, не показалось чем-то необычным.
Люди относятся к роботам почти как к живым существам. Один из самых известных экспериментов в социальной психологии описал в начале 1960-х Стенли Милгрэм. Ему хотелось проверить, могут ли люди под давлением авторитета причинять вред друг другу. Испытуемым надо было в наказание за неправильные ответы бить незнакомых людей током (на самом деле, это были актёры, симулировавшие боль). Если испытуемые этого делать не желали, экспериментатор давил на них. Как ни удивительно, многие оказались вполне способны пытать невиновных. В 1990-х новозеландский учёный Кристоф Бартнек попытался провести вариацию эксперимента Милгрэма — только пытать надо было робота, не человека. В эксперименте испытуемый и его будущая жертва (робот) сидели рядом и играли в компьютерную игру. Затем испытуемому надо было полностью уничтожить «личность» робота, стерев его память. Робот, согласно условиям эксперимента, осознавал, что происходит, и хотел свою жизнь спасти, говоря: «Ты же не хочешь меня выключить всерьёз? Пожалуйста! Если не станешь меня выключать, я буду сидеть очень тихо!» Людям, которые совершенно точно знали, что только лишь стирают файл, это оказалось довольно тяжело.
Даже профессионалы не могут избавиться от склонности антропоморфизировать роботов. Сотрудники лаборатории MIT, создавшие знаменитого робота Kismet, при помощи ширмы отгораживались от него, так как его взгляд мешал им сконцентрироваться на работе. Сьюзен Бизил, создательница Kismet, по собственному признанию, чувствовала себя опустошённой, когда, уходя из лаборатории, она не смогла из-за контракта забрать робота с собой. Но горевала она недолго. Сейчас она занимается новым социально-роботехническим стартапом Jibo, который смог собрать почти $4 млн на краудфандинговом сайте Indiegogo, а перед этим — ещё $25 млн венчурных инвестиций.
Можно было бы предположить, что людям свойственно одушевлять лишь тех роботов , которые некоторым образом похожи на людей или на животных. Но на самом деле это вовсе не так. 10 лет назад, когда самым распространённым бытовым роботом был пылесос Roomba, исследователи из Технологического института Джорджии продемонстрировали, что даже к нему можно относиться по-человечески. Они заметили, что почти очень многие сообщения на форуме владельцев Roomba демонстрировали ту или иную степень интимности по отношению к пылесосу, и также они пообщались с несколькими десятками владельцев умной бытовой техники. Один из хозяев поведал исследователям, что его дети теперь заранее убирают с пола разные мелкие предметы, так как в курсе, что они могут повредить Roomba. Владельцы пылесосов сообщали учёным, что за своего робота «волнуются» или «переживают», когда он где-то застревает, и бегут к нему на помощь. Один человек из опрошенных прекратил в быту использовать глагол «пылесосить». С появлением Roomba он начал говорить: «Я играю с роботом». Люди отзывались о своем пылесосе как о «важном члене семьи» и «почти питомце», приписывали ему уникальные черты, намерения, чувства. Одна участница исследования даже выбросила свой ковёр, потому что он, как ей казалось, фрустрировал пылесосившего его робота.
Это поразительно, как людям свойственна способность очеловечивать любой кусок пластика совершенно. Всё, что потребовалась Roomba, чтобы пробудить бездны эмпатии в людях, — это проявить поведение, с человеческой точки зрения нестандартное.
Большое жульничество искусственного интеллекта
Рынок потребительских роботов быстро растет. В 2015 году было продали 6,6 млн сервисных роботов (газонокосилок, пылесосов, и очистителей бассейнов), а в 2020 году, как подсчитали в исследовательской компании Tractica, их продадут больше тридцати миллионов. Рынок умных роботов, то есть способных выполнять свои функции без вмешательства человека, сможет в том же 2020 году достигнуть $8 млрд. Существенную часть этих роботов составят общительные, социальные и привлекательные внешне создания. Совсем не только потому, что людям так приятнее.
Главная причина состоит в том, что для многих ролей, зарезервированных в нашем мире за машинами, необходим некоторый антропоморфизм. От робота-сиделки в доме престарелых или, например, робота-охранника в детском саду требуется вызывать у людей теплые чувства просто для того, чтобы хорошо справляться со своими должностными обязанностями. Нормальная работа получится только тогда, когда пожилой или нездоровый человек будет испытывать хоть какие-то чувства по отношению к тому, кто о нём заботится. И хотя современные роботы, которые заняты медицинским уходом, не очень похожи на людей, эта ситуация непременно изменится. Тем более, страны, в которых очень много пожилых людей — Китай и Япония, — известны вместе с тем и исторической нежностью по отношению к роботам.
Вторая причина производства социальных роботов — возможности для обучения. Человек, самое разумное известное нам существо, не обладает всей полнотой своих интеллектуальных возможностей с рождения, а приобретает их, общаясь с другими людьми. Способность к обучению — один из интуитивно понятных признаков «настоящего» робота. Кто из нас назовёт роботом механизм, неспособный менять своё поведение и свои представления с течением времени? По мнению некоторых учёных, эффективное обучение у роботов, как и у людей, должно быть социальным. Исследователи из Плимута показали, что роботы быстрее обучались языковым играм, когда взаимодействовали с людьми. В реальной жизни такое взаимодействие будет возможно, если люди сами захотят общаться с роботами. А это значит, что те должны быть социальными. Любой социальный робот при этом будет казаться людям разумным.
Одна участница исследования выкинула ковёр, потому что он, с её точки зрения, фрустрировал робота, который его пылесосил
С точки зрения многих учёных, занятых в робототехнике, сильный искусственный интеллект, полноценное сознание машины, создать невозможно. Но чтобы люди только думали, что имеют дело с мыслящим существом, достаточно имитации, обмана. Человеческий мозг расцвёл во всём своём великолепии для того, чтобы решать социальные задачи: манипулировать соплеменниками, распознавать обман, поддерживать коммуникацию (это представление об эволюции рассудка известно под названием «гипотезы Макиавелли»). Социальный процессор, встроенный в человеческое сознание, настолько мощный, что готов воспринимать мыслящим и одушевлённым существом практически любой объект, обладающий сложным поведением, даже если поведение это создано алгоритмом. В этом состоит «большое жульничество» искусственного интеллекта: когда робот выглядит как разумное милое создание, мы считаем его разумным — все душевные качества машины проецируются нами на него.
Знаменитый тест, придуманный Аланом Тьюрингом, был построен на идее, что машина, способная обмануть человека, уже может считаться разумной. Это могло бы быть справедливо в отношении машин, но категорически не вяжется с реальной человеческой природой. Люди счастливы обманываться. Как они счастливы обманываться.
В 2015 году было продано 6,6 млн сервисных роботов
К 2050 году обыденными станут близкие отношения между людьми и роботами. Автор книги «Любовь и секс с роботами» Дэвид Леви — известный специалист по искусственному интеллекту, а вовсе не по искусственным гениталиям. Он двукратный обладатель премии Лёбнера, которую вручают за самого антропоморфного чат-бота. Его уверенность в собственных предсказаниях проистекает из этого опыта. Люди неизбежно будут привязываться к роботам и воспринимать малейшие непредсказуемости в их поведении как знаки внимания, считает он. А значит, всё дело только за созданием физической оболочки, в которую легко влюбиться.
Модель №2
Маттиас Шойтц из Лаборатории взаимодействия людей и роботов Университета Тафтса провёл множество экспериментов. Он выяснил, что в ситуациях, когда робот и человек вместе решают какую-то задачу, люди ценят в роботах проявление самостоятельности. Он программировал роботов, чтобы они демонстративно не подчинялись указаниям (мотивируя это тем, что «заканчивается время»), и это улучшало, а не ухудшало их оценки. Люди ценят в роботах человечность, и Шойтца это скорее пугает.
Есть множество свидетельств привязанности людей к роботам, но вот только сами роботы к людям не привязываются. Они в большинстве своём даже не имеют программного обеспечения для распознавания людей. С точки зрения Roomba или военного робота-пакбота, применявшегося в Ираке, каждый из нас — всего лишь препятствие на пути.
Неразделённые чувства по отношению к роботам, считает Шойтц, — верный путь к эксплуатации и несчастьям. Он предлагает три возможных способа избежать плохих последствий. Во-первых, программировать в роботах определённые этические принципы. Во-вторых, снабжать их системой, которая постоянно чётко и недвусмысленно сообщает людям, что робот не испытывает эмоций и не может ответить на эмоции взаимностью (так на пачках сигарет пишут, что «курение убивает»). Наконец, признаёт он, есть и третий радикальный, почти утопический путь: встроить в роботов эмоции. Проделать с ними тот же жестокий трюк, который проделала с нами эволюция. Научить их понимать и жалеть своих биоорганических братьев.
Не все коллеги Шойтца готовы рисковать и идти по третьему пути: люди адаптируются к роботам гораздо быстрее, чем роботы к людям. Стэнфордский специалист по робототехнике Джон МакКарти ещё в 1990-х предупреждал коллег, что не стоит делать из роботов мишени для человеческих эмоций. «Если роботы смогут выглядеть грустными, заскучавшими или разозлёнными, люди начиная с детского возраста будут относиться к ним как к личностям. В этом случае роботы, вероятно, получат какой-то статус в человеческом обществе. Человеческое общество и без того достаточно запутанно». Тот самый статус роботы, кажется, получают на наших глазах, для начала — в Евросоюзе.
Умные роботы с неизбежностью будут социальными, и люди не смогут их не одушевлять
В великом романе «Модель №2», по которому был снят фильм «Крикуны», колонисты позволяют роботам эволюционировать самостоятельно, чтобы эффективнее решать возникающие проблемы. Роботы, понятное дело, в какой-то момент эволюционируют в безжалостных убийц. Но если первое поколение не оставляет больших сомнений в своих намерениях (больше всего напоминая популяцию самодвижущихся циркулярных пил), то второе и внешним видом, и поведением неотличимо от обычных, причём беззащитных людей, мальчика или привлекательной молодой женщины. Филип Дик, который, кажется, глубже любого другого писателя смог погрузиться в психологию взаимоотношений людей и роботов, первым понял, что антропоморфные создания завоюют человечество гораздо быстрее, чем Skynet или Hal 9000 (хотя, если исследования не врут, человек способен одушевить и полюбить хоть Skynet, хоть циркулярную пилу). В ещё одной экранизированной книге Дика «Мечтают ли андроиды об электроовцах» («Бегущий по лезвию» Ридли Скотта) описана неразделённая любовь к роботу.
Проект резолюции, лежащий сейчас в Европарламенте, может и не пройти прямо сейчас, но это не значит, что роботы не получат юридической защиты. Они этого добьются рано или поздно, потому что сумеют воспользоваться очевидным несовершенством человеческой природы. По этой же причине разумные роботы (если и когда они появятся), будут претендовать на получение полных гражданских прав. Если захотят, конечно.
Комментарии (0)