×

Вопросы морали и права: готово ли общество доверить себя искусственному интеллекту

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Айзек Азимов, «Хоровод» (1942)

В этом материале хотелось бы рассмотреть проблемы бизнес-аналитиков и product owners, которые работают с продуктами, использующими технологии искусственного интеллекта. Идея написать статью у меня появилась после конференции, на которой я услышал о перспективных направлениях внедрения ИИ, и возникли вопросы о том, все ли гладко в этой сфере, насколько общество готово принять эти изменения.

Так ли хорош ИИ?

Сперва хотелось бы вспомнить известный анекдот о пиццерии Google. Человек звонит заказать пиццу, а искусственный интеллект вначале рекомендует пиццу с творогом и зеленью, исходя из состояния его медицинских анализов, после этого напоминает, что он давно не принимал таблетки, а когда человек в сердцах решает все бросить и уехать на необитаемый остров без интернета и компьютеров, где никто бы не контролировал его и не следил, искусственный интеллект сообщает, что паспорт просрочен.

Шутки шутками, но современные технологии, уже давно ставшие неотъемлемой частью нашей жизни, развиваются настолько быстро, что футуристический мир, изображенный в том же сериале «Черное зеркало», не выглядит таким невозможным и недосягаемым. Все больше человечество полагается на ИИ. Человек уже доверяет алгоритмам не только выбор фильмов для вечернего просмотра, как это реализовано у Netflix, не только обработку изображений, в результате чего неподвижные картинки оживают, не только отслеживание соблюдения диеты, но и уход за домашними питомцами, своевременный прием лекарств пациентом, раннее выявление различного рода патологий.

Человечество делает первые шаги в том, чтобы поручить ИИ разрешение споров и конфликтов между людьми, фактически заменяя машиной судебную систему, государственный аппарат.

Казалось бы, полная автоматизация всех чиновников и переход на электронное правительство, внедрение цифрового судопроизводства — не это ли является панацеей от набившей всем оскомину коррупции? Несмотря на всю красоту этой идеи, дьявол, как всегда, кроется в деталях. И самая большая проблема заключается в том, что философия — этика и мораль — не успевают за невероятной скоростью технического прогресса, который мы наблюдаем последние 70 лет.

А что, если ДТП? Кого должен спасать ИИ?

Давайте разберем на наглядном примере. Беспилотное транспортное средство, способное доставить нас в любую точку, — давняя мечта человека. Мы вплотную приблизились к тому, чтобы поручить машинам управлять не только наземным, но и водным транспортом. Следует полагать, что оттуда рукой подать и до воздушных беспилотников.

Транспортное средство — источник повышенной опасности, управление им несет риски, связанные с возможным причинением вреда другим людям, вплоть до гибели. И если управляет человек, вопрос его действий за рулем в случае критической ситуации сводится к уровню подготовки, состоянию здоровья, внимательности и реакции, а также доли случайности, то с искусственным интеллектом не все так просто. Последний следует инструкциям, заложенным разработчиком. И вот здесь лежит основная проблема — проблема выбора.

Как поступить в случае критической ситуации, кем пожертвовать, кого поставить под риск гибели или причинения вреда здоровью? Собакой на тротуаре, вне проезжей части, чтобы спасти ребенка, выбежавшего на проезжую часть в неположенном месте? А если ребенок перебегает дорогу в разрешенном месте? А если в салоне автомобиля 4 человека? А если на тротуаре будет не собака, а пожилая женщина? А если детей будет двое? А если вместо пожилой женщины на тротуаре будут несколько мужчин среднего возраста? Придумайте любой из множества сценариев. Чем сложнее и совершеннее будут становиться технологии, тем, скорее всего, большее количество факторов они будут учитывать — социальный статус, состояние здоровья и т. п. Главная идея — это необходимость выбора. И она становится тем острее, чем дальше человечество передает часть своих функций машинам, и ИИ проникает в наиболее важные сферы жизни человека, в которых принятие решения было всегда исключительной прерогативой человека.

Однозначных правильных ответов на поставленные выше вопросы нет. Недавние исследования того, как должен вести себя беспилотный автомобиль во время ДТП, чьи жизни должен спасать, показали, что несмотря на общие региональные тенденции в ответах по всему миру, различные группы людей отвечали на эти вопросы по-разному. Сказались региональные культурные различия.
Отвечая на подобные вопросы, мы руководствуемся взглядами и убеждениями, такими категориями как «морально/аморально», «нравственно/безнравственно», «правильно/неправильно».

Мораль — это принятые в обществе представления о хорошем и плохом, а также совокупность норм поведения, из них вытекающих. Нормы морали трансформируются в нормы права, приобретая четкую формализацию и защиту со стороны государства.

Однако это не защитит их от изменений. Нормы морали могут меняться намного быстрее норм права, вступая в противоречие в последующем. Так, в нашем примере с беспилотным транспортным средством, по сути, отдавая предпочтение той или иной категории людей в связи с теми или иными признаками, каждый подопытный входил в противоречие с, например, Конвенцией о правах человека, которая устанавливает недопустимость дискриминации людей в связи с какими-либо признаками.

Так, в вышеуказанном исследовании, выяснилось, что представители одного из регионов, когда им приходится выбирать, чью жизнь подвергать опасности, а чью — спасать, отдавали предпочтение молодым людям и людям с высоким социальным статусом. Те же респонденты выше остальных ценили жизнь женщин и тех, кто занимается спортом. Представители другой группы предпочли законопослушных людей и пешеходов, меньше остальных «оценив» жизни женщин и молодых. Все вышеуказанные аргументы могут быть расценены как дискриминация.

Непринятие продукта и конфликты интересов. С чем столкнется IT-компания?

Как же быть в этой ситуации бизнес-аналитикам и product owners, которые должны работать над выявлением потребностей клиента (в данном примере — общества) и предлагать пути решения таких проблем? Заложив в алгоритм продукта равенство всех, как это предусмотрено законодательством большинства развитых стран мира, мы рискуем столкнуться с проблемами неопределенности и непредсказуемыми решениями. Кроме того, что это противоречит принципам разработки программного обеспечения, этого нельзя допустить при создании продуктов, от которых зависит жизнь людей.

Луддиты — участники стихийных протестов первой четверти XIX века против внедрения машин в ходе промышленной революции в Англии — громили и разрушали машины и оборудование. С их точки зрения, те вытесняли из производства людей, что приводило к технологической безработице. Даже в ХХІ веке существуют приверженцы обскурантизма — движения, проповедующего враждебное отношение к просвещению, науке и прогрессу, губительность развития научно-технического прогресса для общества.

То есть компания рискует столкнуться с резким неприятием своего продукта на базе технологий с ИИ населением того или иного региона. И эти последствия будут ощущаться тем острее, чем более массовое использование получит технология и чем больше жизней будет от нее зависеть. Пример с беспилотным автомобилем так же валиден и для примера с «роботом-судьей», который упоминался в начале статьи.

Отличным примером может быть установленная на складах компании Amazon система, предназначенная для оптимизации работы. Нейросеть уже уволила несколько тысяч человек за то, что они недостаточно быстро и четко выполняли свою работу. Компания неоднократно подвергалась критике за тяжелые условия труда, а в данной ситуации сотрудники еще и жалуются, что нейросеть принимает их не за людей, а за роботов — и обращается с ними соответственно. При этом менеджмент компании утверждает, что система более гуманна, чем человек на той же позиции (т. е. менеджер-супервайзер). На лицо скрытый конфликт потребностей разных групп стейкхолдеров — менеджмента и сотрудников, а также, возможно, и действующего законодательства, что и может вызывать нарастающее недовольство и неприятие технологии, вред имиджу компании.

С другой стороны, даже проведя масштабные исследования и выяснив, какие предпочтения существуют в обществе, не всегда можно заложить эти критерии в алгоритм принятия решений продуктом, который использует ИИ, не войдя в противоречие с действующим законодательством. А это порождает риски судебных исков и запрета технологии или продукта по решению властей того или иного государства.

Хорошим примером может послужить ситуация, когда Amazon был вынужден отказаться от использования ИИ в рекрутинге. Обучаясь на базе данных существующих сотрудников, в которой преобладали мужчины, ИИ при выборе кандидатов стал отдавать предпочтение мужчинам, чем вызвал шквал критики и угрозу судебного преследования в связи с дискриминацией женщин.

Получается, что не только различия между культурными кластерами, но и конфликты внутри них могут представлять серьезную проблему для разработчиков в сфере искусственного интеллекта.

Что же делать бизнес-аналитикам?

Первым шагом будет выяснение потребности общества, а также, как бы это странно ни звучало, норм морали, которые существуют в в тех сферах, куда собирается «вмешаться машина». Чем серьезнее такое вмешательство, тем более масштабное исследование необходимо. В случае, если в обществе существуют разные социальные группы, с разными нормами морали в одном и том же вопросе, делаем gap-анализ, чтобы понять насколько глубокими являются такие противоречия. Следующим этапом, должен стать анализ законодательства того региона, в котором планируется последующее внедрение технологии, а также gap-анализ, но уже с нормами морали, выявленными в ходе исследования. Чем больше разрыв между нормами морали в различных слоях общества, а также между ними и действующим законодательством, тем выше риск провала.

Верю, что это возможно. В случае, если общество единодушно в своих представлениях относительно исследуемого вопроса, необходима работа с законодательными органами для изменения законодательства и приведения его в соответствие с нормами морали. Ведь именно нормы морали и являлись изначальным источником норм права, лишь позже, в ходе развития, нормы морали вошли с ними в противоречие.

Гораздо хуже, когда у общества нет единого видения, как, по их мнению, должна «поступить машина». В этом случае преодолеть противоречия намного тяжелее и возможно только путем популяризаторской, просветительской деятельности, стараясь донести миссию, философию, а также пользу продукта. Является ли такая работа быстрой? Однозначно нет, в каких-то случаях, это может растянуться и на десятилетия. Но не стоит забывать, что в последнее время технологии выступают двигателем развития социальных институтов. Развиваясь слишком быстро, они периодически вступают в конфликт, однако дают толчок к изменениям друг друга.

В качестве примера можно привести генетику. Развитие этой науки прошло похожий путь. От полного запрета в некоторых странах, обвинений в лженаучности, осуждения со стороны религиозных институтов, до проведения первых исследований по редактированию генома эмбриона человека. При этом даже сейчас этой науке не до конца удалось решить все проблемы, стоящие на пути ее развития. Пример противоречия: когда ведущие ученые призвали к введению глобального моратория на использование инструментов редактирования ДНК для создания генетически модифицированных детей.

Выводы

Исходя из вышеизложенного, можно сказать, что вызов перед бизнес-аналитиками и продукт оунерами стоит сложный, требующий комплексных, ранее не виданных по объему усилий. Но сложный не означает невозможный. Успешный пример генетики, прошедшей такой же тернистый путь к признанию, вселяет надежду в успешное внедрение технологий на базе ИИ в жизнь людей и то, что прогресс не остановить устаревшими социальными институтами. Давайте посмотрим, что будет дальше.


Images by Björn Öberg

Все про українське ІТ в телеграмі — підписуйтеся на канал DOU

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn

Схожі статті




22 коментарі

Підписатись на коментаріВідписатись від коментарів Коментарі можуть залишати тільки користувачі з підтвердженими акаунтами.
Человечество делает первые шаги в том, чтобы поручить ИИ разрешение споров и конфликтов между людьми,

Кратко: как работает психика человека (согласно ведической теории)
1. Органы чувств (джняна-индрии) получают информацию
2. Полученная информация вызывает чувства (самскары)
3. Чувства вызывают желания, зачастую противоречивые (васаны)
4. Интеллект сравнивает желания, вырабатывает пути их исполнения, прогнозирует и оценивает реализуемость путей и ожидаемые результаты, сравнивает их между собой и выбирает один вариант из многих действий.
5. Органы действия (карма-индрии) реализуют выбранный вариант
Сейчас весть ИИ сосредоточен на п.4 и п.5
Научить ИИ решать конфликтные ситуациитак, как это делает Человек — невозможно без чувств и желаний. ИМХО, будущее развитие ИИ не в совершенствовании алгоритмов п.4 и п.5 , а в эмулировании чувств и желаний. п.1 и п.2. ))

Я думаю смысл ИИ (в данном случае) как раз в том, чтобы делать выбор основываясь не на чувствах/желаниях, а на фактах.

Мі говорим о МОРАЛЬНОМ віборе? Тогда какие тут факты??? Только чувства. «Нравственный закон внутри меня» © Кант. У каждого он свой. Сможет ли ИИ его воспроизвести?

Конечно, осталось только эмпатию типизировать и эмулировать.

Недавний плохой пример применения ИИ — цензура фото в Фейсбуке. В 2018 они внедрили систему распознавания на изображениях сисек, гениталий и жоп . Пост с загруженным фото блокируется под предлогом «nudity». Под обнаженку попали и фото собственных детей на пляже в возрасте 4-6 лет , и фото предметов искусства (скульптур, картин), не несущие никакого сексуального подтекста. Соски есть — значит это сиськи и бан! При этом соски мужского пола пол бан не попадают. Сомневаюсь что робот может по детским фото пол определить, если не видно первичных признаков. Совсем ипанулись они со своей моралью и политкорректностью

Так в чому проблема вибору водія на дорозі? Вибирати, чи дотримуватися ПДР, чи ні?

а интересно а алгоритму работающему в контроллёре лифта вы доверяете? ))

а интересно а в чём разница с «ии»?

Пусть ии в спорных моментах «бросает монетку», чтобы ни вашим ни нашим было. Там (рандом1 > рандом2) ? И тому подобное

ИИ — да. Но только надо будет проверять каждую его операцию человеком. А вот естественному я довериться просто не в силах.

Ты действительно считаешь ИИ умным? Он быстрый, у него фотографическая память, но ИИ не умный и никогда умным не будет — разве что ИИ научить переписывать свой код. И вот тут возникнет потрясающая по красоте своей картина — ИИ пожертвует быстротой и памятью ради подобия человеческого ума. То есть, все вернется на круги своя. ИИ сейчас, ИИ современный это плоскогубцы. Пусть говорящие, но не более того.

Ии выступает в роли советчика
Человек принимает решения основываясь на анализе от ии
Если человечество перестанет нести ответственность за свои решения — оно обречённо

В чем проблема? Люди ж выбирают за кого голосовать слушая диванных експертов

Перестать Нести ответственность — спихивать вину на других, винить всех кроме себя. «это не я, это ии так сказал, я только слушал.» или «это не я, это фюрер приказал, я только исполнял»
Причём тут быть съеденным?

Заголовок и концепция статьи не правильна. Автор пишет так как будто есть выбор. Правильный заголовок такой — «Вопросы морали и права: Когда общество будет готово доверить себя искусственному интеллекту?»

Угу, по крайней мере если исходить из того факта, что общество — на протяжении всей истории — регулярно доверяет себя естественной тупости

Учитывая, что общество уже давно доверило себя сомнительному человеческому интеллекту разных политиков — хуже точно не будет.
Главное, чтоб это шло эволюционным путем без войнушек, крови и жертв.

Підписатись на коментарі