Ответственные технологии
2017-01-20 | Текст: Татьяна Петухова | Фото ©: SC Designs / shutterstock; McGovern Institute for Brain Research at MIT / youtube; Neil Harbisson / flickr; Jan & Peggy / flickr; Chris K. Schleiermacher, Warut Roonguthai / wikipedia; ramash_shop; gridpd / stock.adobe; Кадр из фильма «Я, робот» | 1006

С каждым днём технологии всё глубже и глубже проникают в жизнь человека, всё сильнее влияют на образ его мыслей, его поведение и его тело. Но всё чаще начинают возникать и споры о допустимых границах этого влияния: нам уже нужно заниматься «технологической этикой» как отдельной областью знаний. Наш собеседник – специалист по техноэтике и социальным аспектам внедрения новых технологий Пётр Левич.


Пётр Левич. Специалист по технологической этике и социальным аспектам внедрения новых технологий; директор департамента взаимодействия науки, технологий и общества Московского технологического института и основатель Future Foundation. 

– Философская дисциплина, известная нам как этика, пытается разрешить четыре основные проблемы: проблема критериев добра и зла, проблема смысла жизни и назначения человека, проблема свободы воли и проблема должного и его совмещения с желанием счастья. А какие вопросы решает технологическая этика?

Изобретать что-то новое здесь не нужно, и вопрос технологий целесообразно рассматривать в свете тех же самых четырёх проблем. Приведу пару примеров. Допустим, этично ли корректировать геном, чтобы создать предрасположенность человека к чему-либо конкретному? То есть ещё на эмбриональном уровне подготовить его к тому, чтобы он стал, например, очень крутым математиком, но тем самым лишить его свободы выбора стать крутым футболистом. Да, в математике он, наверное, будет счастлив, поскольку здесь у него всё будет получаться, но имеем ли мы право навязать ему счастье именно в этом, а не в том?

Другой пример: помните знаменитый эксперимент с нейростимуляцией крыс? В мозг животных были вживлены металлические электроды, которые при нажатии специальной кнопки стимулировали центр удовольствий. Когда крысам позволили нажимать на эту кнопку самостоятельно, они стали делать это непрерывно, забыв даже о воде и пище, и, в конечном счёте, умерли от истощения. Они не нашли в себе более сильной мотивации, чем нажимать кнопку, что в случае с человеком означало бы отказ от ценностных оснований счастья. Но какой тогда во всём этом смысл, если счастья можно достичь, просто нажимая на кнопку? Технические возможности нейротехнологий поставят перед нами новые вопросы переосмысления понятия «счастья» как ценности и задачу поиска новых мотиваций для жизни.

– Любая ли технология является предметом рассмотрения техноэтики?

Существует много вопросов о том, как должны развиваться современные технологии, и как их следует или не следует применять. Но в моём понимании не все эти вопросы являются этическими. К примеру, вопрос создания супервируса на основе технологии генома к этическим я отнести не могу, потому что кого ни спроси – все скажут, что делать этого не нужно, это плохо. Здесь нет этики как таковой, поскольку в своём мнении едины все. Вирус, скорее всего, всё равно будет создан, но работы будут непубличными.

Этический же вопрос возникает там, где общество делится на две или более части. Это спорные вопросы, на которые люди, основываясь на своих ценностях, отвечают по-разному.

За последнее время технологическая этика значительно увеличила свою актуальность. Связано это с тем, что темпы выведения новых технологий на рынок сильно ускорились, а также с развитием технологий, работающих с человеческой идентичностью, таких как киборгизация, редактирование генома, нейротехнология. Подобные технологии заставляют людей глубже задумываться о самих себе, своей идентичности, своих личностных ценностях.

В апреле 2015 года группой учёных университета Сунь Ятсена (Китай) впервые в мире был проведён эксперимент по редактированию генома человеческих эмбрионов с помощь технологии CRISPR/Cas9, базирующейся на иммунной системе бактерий. Но ввиду запрета этических комиссий на подобные эксперименты, его результаты даже не были опубликованы крупными научными журналами.

– Ты утверждаешь, что техноэтика проявляет себя на уровне общества, когда по отношению к той или иной технологии оно делится на два лагеря. Но как тогда быть с таким понятием, как моральный выбор, который обычно осуществляется на уровне конкретного учёного или инженера? Должен ли он задумываться над тем, какой вред может нанести его разработка?

Я придерживаюсь мнения, что сами технологии этически нейтральны. Во-первых, практически любая технология может быть использована как в благих, так и не совсем благих целях. Во-вторых, учёный или инженер не всегда могут предугадать, каким образом может быть использована их технология. В этом плане интересна история, связанная с шотландским физиком Робертом Уотсон-Уоттом. Когда однажды полицейские остановили его за превышение скорости, он воскликнул: «Эх, если бы я только знал, как вы будете использовать радар, то никогда бы его не изобретал!» Именно Уотсоном был создан один из первых действующих радаров, но вот предназначался он изначально только для радиолокации воздушных объектов. Или взять изобретателей динамита и пулемёта – Альфреда Нобеля и Ричарда Гатлинга. Оба они были убеждёнными пацифистами, но создали оружие, унёсшее миллионы жизней. Дело в том, что, как и некоторые другие изобретатели, Нобель и Гатлинг искренне полагали, что если у противников появится оружие, с помощью которого они смогут быстро друг друга уничтожить, то поймут, что никакого выигрыша в войне не будет, и прекратят все конфликты.

Но кто ответственен за то, что всё получилось так, как получилось? Разве учёный или инженер? Если возлагать ответственность на них, то им тогда лучше совсем ничего не делать, поскольку, как я уже говорил, практически невозможно придумать такое изобретение, которое нельзя было бы использовать в негативных целях.

Мир за последние годы сильно изменился – настало время коллабораций и научных групп. Современная наука сложна, и сделать что-то в одиночку невозможно. Одни научные группы проводят анализы, другие – разрабатывают прототипы, третьи – осуществляют тестирование. А в итоге рождается одна-единственная технология, ответственность за которую очень сильно размыта между всеми участниками.

– Но кто тогда должен быть носителем технологической этики, если не учёные, тем более, что многие технологии только им одним и понятны? Возложи в этой ситуации ответственность на всё общество в целом – и оно либо запретит «хорошую» технологию, либо одобрит «плохую». Яркий пример – ГМО-продукты. Большинство учёных уверяют, что они опасны не более, чем результаты обычной селекции, в то время как общество в целом выступает против, при этом совершенно не разбираясь ни в генах, ни в процессах пищеварения. Социологические опросы показывают удивительную вещь: большинство населения вообще уверено, что «обычные томаты генов не содержат, в отличие от трансгенных томатов». В итоге в некоторых странах мы имеем запрет на производство и продажу ГМО. Разве можно такую ситуацию назвать нормальной?

 Конечным носителем технологической этики общество будет в любом случае. Даже в тех странах, где продажа содержащих ГМО продуктов разрешена, покупать или не покупать их, решают конкретные люди. Но их выбор будет результатом просвещения и образования, и в этом смысле первичным носителем этики будет выступать определённое экспертное сообщество. Здесь, правда, возникает другая проблема: образованием всегда управляла власть, и она способна убедить людей в нужной для неё позиции. Но любой человек при желании может достаточно легко получить и не аффилированные с конкретной властью знания – благодаря глобальности и связности сегодняшнего мира. И если не брать ситуацию Северной Кореи и Китая, в большинстве стран люди могут это делать, в том числе и в России. К сожалению, далеко не всегда хотят.

 

Большинство людей очень плохо информировано о современных технологиях и в них не разбирается. К примеру, опросы показывают, что более 50 % населения твёрдо уверено, что обычные томаты вообще не содержат генов, в отличие от трансгенных томатов. Кстати, а сможете ли вы только лишь по внешнему виду выделить из четырёх приведённых картинок те, на которых изображены продукты, полученные методом генной инженерии? Если вы думаете, что это кукуруза, картофель или томат, то  ошибаетесь – выведены они путём самой обычной селекции. Ну, а что касается фотографии дикого банана с семенами внутри мякоти, то он появился не то что раньше возникновения генной инженерии как таковой, но и задолго до появления самого человека.

– Считается, что моральные дилеммы не имеют правильного решения. Но сейчас человек стоит перед необходимостью программировать беспилотники, а значит, с правильным выбором он должен определиться и, более того, заложить его в «мозги» робота. Кого будет давить в критической ситуации беспилотный автомобиль – зазевавшегося студента или престарелую супружескую пару? Задавит перебегающую на красный свет маленькую девочку или пожертвует собственным пассажиром – руководителем крупной корпорации? А что если дело происходит в Индии? Чья жизнь ценнее – бредущей по дороге священной коровы или толпы людей, стоящих на остановке?

Я считаю, что эта проблема беспилотников сильно преувеличена, поскольку в реальной жизни ситуации с возможностью подобного выбора происходят крайне редко, а с внедрением беспилотников будут происходить ещё в десять, а может быть, и в сто раз реже. Теоретически мы можем научить машину мгновенно распознавать человека и с помощью его профилей в социальных сетях определять возраст, социальное положение, профессию и наличие детей. Затем по каким-то хитрым алгоритмам сравнивать ценность пешехода и пассажира и выбирать – кому жить дальше, а кому – нет. Однако я категорически против такого подхода: это движение в сторону евгеники, и оно противоречит современному пониманию прав человека. Единственное, о чём может идти речь – о сравнении числа жертв, без их оценок. Если же это число одинаково при всех возможных вариантах, то принцип может быть хоть случайным. Но, повторюсь, основные старания инженеров и программистов должны быть сконцентрированы на предотвращении подобных ситуаций, а не на их решении.

– С точки зрения сухой статистики, может быть, и не принципиально, кто будет сбит в итоге. Но каждое ДТП – это ещё и судьбы вполне конкретных людей, и донести до убитых горем родственников погибшего, что их сын, брат или муж погиб только потому, что робот случайным образом выбрал в качестве жертвы именно его, будет крайне сложно.

Конечно, всё это очень печально. Но в реальности понять и принять случайный выбор гораздо проще. А вот объяснить, что кто-то погиб лишь по причине того, что он на два месяца старше другого человека или занимает менее ответственную должность, будет действительно проблематично.


Проблема вагонетки – известный мысленный эксперимент в этике, сформулированный в 1967 году английским философом Филиппой Фут. Он моделирует типичную моральную дилемму – возможно ли навредить одному, чтобы спасти других.

Формулируется проблема так: «По рельсам с большой скоростью несётся неуправляемая вагонетка. На её пути к рельсам привязаны пять человек, которые неминуемо должны погибнуть. Однако у вас есть возможность перевести стрелку, и тогда вагонетка свернёт на запасной путь, задавив другого человека, также привязанного к рельсам. Каковы будут ваши действия?»

Очень многие испытуемые затрудняются сделать выбор, но при этом большинство из них уверено, что если за перевод стрелки отвечает робот, то он должен спасти бо́льшее количество людей.

Похожая проблема была предложена философом Д. Д. Томсоном. Как и прежде, вагонетка несётся по рельсам, к которым привязаны пять человек. Вы находитесь на мосту, который проходит над рельсами. У вас есть возможность остановить вагонетку, бросив на пути что-нибудь тяжёлое. Рядом с вами находится толстый человек, и единственная возможность остановить вагонетку – столкнуть его с моста на пути. Какими будут ваши действия?

Можно ли, с нравственной точки зрения, столкнуть человека, чтобы спасти остальных? Такое решение для значительной части людей выглядит уже практически невозможным. Бо́льшая часть тех, кто переключил бы стрелку в первой ситуации, не стали бы толкать человека под вагонетку во второй, хотя никакой принципиальной разницы между этими ситуациями нет.

– Сегодня водитель несёт дополнительную ответственность как владелец средства повышенной опасности, причём вне зависимости от того, виноват он в ДТП или нет. В случае с беспилотником водитель «исчезает» – и кто тогда начинает отвечать за сбитого пешехода? Программист?

Думаю, что на первом этапе это будет проблемой корпораций, занятых производством беспилотников. Но каждое ДТП будет тщательно анализироваться, что позволит сделать беспилотники ещё более безопасными, а в дальнейшем может послужить основанием для изменения норм ПДД, иной организации дорожного движения и юридической ответственности. Вполне возможно, что здесь мы придём к той же модели, которая существует в железнодорожном транспорте, где никакой ответственности за сбитых поездом нарушителей машинисты не несут.

– Наверное, недолго осталось ждать и того момента, когда человечество создаст андроидов с достаточно продвинутым искусственным интеллектом. Какой будет их этика? В её основе будут лежать законы робототехники, сформулированные Азимовым?

Законы робототехники Азимова императивны. Следуя им, не нужно совершать моральных выборов, они лишь говорят с нами языком теоремы из учебника геометрии 7 класса: «ЕСЛИ» – «ТО». А это не этика. Этика – это принятие решения в ситуации наличия свободного выбора. Кроме того, чисто технически законы Азимова очень трудны для программирования, поскольку, чтобы пользоваться ими, необходимо очень высокое понимание окружающей действительности и происходящих событий. Это ведь уже не только распознавание людей, но и, например, понимание того, что один человек хочет убить другого; понимание, что в этой ситуации можно сделать. Не думаю, что в ближайшем будущем роботы настолько начнут понимать окружающий мир, что смогут принимать решения в таких категориях. Даже человек не всегда способен это сделать.

Законы Азимова использовать нужно, но только в метафорическом смысле – как некоторые пожелания для робототехников: не стоит делать роботов, которые убивают людей; не стоит делать роботов, которые не выполняют приказов человека; не стоит делать роботов, которые не заботятся о собственной безопасности.

Но с тем, что этику для роботов, так или иначе, нам придётся прописывать, я согласен. Человечество стоит на пороге «кризиса сложности», и в скором времени для управления заводами, электростанциями и, может быть, даже городами, нам потребуются компьютеры «с большими полномочиями». И этим компьютерам придётся принимать сложные решения: допустим, при возникновении критической ситуации на атомной электростанции закрыть зону реактора с оставшимися в ней людьми, чтобы не допустить бо́льших жертв.


Вопрос правильности принятого роботом морального решения является одним из центральных в снятом по мотивам рассказов Азимова фильме «Я, робот». Его главный герой, сыгранный Уиллом Смитом, мучается из-за того, что во время автомобильной аварии пробегавший мимо робот спасает именно его, а не маленькую девочку, посчитав, что в данной ситуации шансов выжить у неё меньше.

В 2004 году Институтом сингулярности США для обсуждения этики искусственного интеллекта в контексте проблем, затронутых в фильме «Я, робот», был даже открыт специальный сайт.

– А есть какое-то понимание, как можно научить роботов принимать такие решения?

Мы можем задавать им правила, а можем обучать на поступках людей, например, с помощью книг или виртуальных миров. Причём технологии обучения роботов сейчас активно разрабатываются. Наверное, это одна из тех сфер, где радикальные успехи фиксируются наиболее часто. Даже очень далёкие от этой темы люди наверняка слышали о применении этой технологии в приложении-фоторедакторе «Призма» и программе AlphaGo, обыгравшей человека в игру Го. Так что создание достаточно умных, самообучающихся машин – это уже не область научной фантастики, а вполне понятно прорисованные дорожные карты развития проектов и оформившиеся в аналитических отчётах тренды.



Подпишитесь на eRazvitie.org в Фейсбуке и ВКонтакте, чтобы не пропустить новые материалы.

dsf
Найдите нас Вконтакте
Рекомендуем прочитать
Default AJAX