Мы поможем сформировать запрос
Пишите по вопросам сотрудничества
Поможем сформировать запрос
Команда РПД
Заказать intro-сессию
"Человекоцентричная бизнес-модель"
Telegram
WhatsApp
Сообщение попадет лично Арсену Даллакяну

____

РОБОЭТИКА

Карлен Даллакян
Консультант по школьной психо-философии, развитию личной и коллективной воли. Профессор философии
Апрель 26,2018
Наступило время, когда искусственный интеллект все чаще и чаще оказывается в ситуациях, при которых любой из возможных сценариев приводит к человеческим жертвам. Например, дорожно транспортные происшествия с участием беспилотников - какую стратегию выбрать роботу: сохранить жизнь своему хозяину или же сберечь ребенка, переходящего дорогу в неположенном месте? Ответ на этот вопрос и лежит в сфере компетенций этики. Робоэтики.

Что это такое "Робоэтика" и, что включает в себя

В то время, как инженеры и ученые естественных, технических и математических наук весьма интенсивно заняты созданием и совершенствованием робототехники, гуманитарии спорят о специфике этических ограничений активности ИИ, которые для краткости и удобства называют робоэтикой.

Этика – это учение о морали, а мораль – форма общественного сознания, регулирующая поведение посредством представлений о добре и зле, хорошем и плохом, правильном и неправильном. Очевидно, что такие правила можно вложить и в ИИ.

Робоэтика состоит из двух частей:а) регуляция поведения человека посредством " цифровой совести"б) регуляция поведения роботов через отношения к ним со стороны людей.

Первое предполагает внутреннюю саморегуляцию ИИ, посредством той информации о правильном и неправильном, дозволенном и недозволенном, которая вложена в него человеком. Второе - разработку норм отношения людей к ним. Ведь люди тоже должны нести ответственность за неадекватное отношение к ИИ, чтобы не допустить нового "техновидового расизма".



Условие существование этики

Вообще оправдано ли говорить о робоэтике, если этика, как учение о морали, начинается с автономии воли. Это прекрасно показал Имануил Кант в своей «Критике чистого разума». То есть о моральности или аморальности поступка можно говорить, если действующий субъект имеет свободу выбора.

Видео и расшифровка с конференции "Неделя маркетинга" 2018

Почему сейчас каждая компания хочет стать моим другом и партнером? Чем отличается экосистема и маркетплейсы? А нужно ли все это человеку?

Interdisciplinary work of scholars of the humanities and AI specialists

Чек-лист рыночной привлекательности продукта/сервиса

Будет ли свобода воли у робота ?

Очевидно, что да.Уже сегодня эксперименты показывают, что даже на существующем уровне развития ИИ возникают ситуации, когда вынужденно нарушается заданная человеком программа. Так известно, что беспилотник нарушил запрет не наезжать на газон, когда возникла угроза задавить человека.
Очевидно, что да.Уже сегодня эксперименты показывают, что даже на существующем уровне развития ИИ возникают ситуации, когда вынужденно нарушается заданная человеком программа. Так известно, что беспилотник нарушил запрет не наезжать на газон, когда возникла угроза задавить человека.

Ответственность за нарушение алгоритмов

Тогда возникает вопрос о наказании за нарушение программ, встроенных в ИИ. В примере с "газоном" беспилотник выбрал "меньшее зло", испорченный газон лучше чем дтп, но что если там стояла бы коляска?Когда мы говорим о свободе принятия решений, следом идет вопрос об ответственности за право использовать данную свободу.Если речь идет об этике, то наказание должно быть или посредством самобичевания - аналог совести человека, или общественным мнением - в случае с ИИ личным хозяином. В случае правового наказания ответственность должна ложиться на хозяина средства с ИИ. Ведь право связано с санкциями со стороны государства. Наказание в данном случае (оплата штрафа, например, или лишения права на владение, покупку робота) должно касаться именно хозяина ИИ.


Россия и робоэтика

Россия обладает передовыми интеллектуальными ресурсами, но не смотря на это отстает от других стран в создании моральных норм регуляции искусственного интеллекта, что может привести к потере рынка ИИ в целом. Глобально технологическое развитие тормозится не на уровне Предложения, а из-за не подготовленного Спроса. Неслучайно передовые технологические рынки были созданы в странах, где параллельно развитию производства была проведена работа по подготовке массовой культуры и спроектированы модели общественного цифрового поведения: Япония, США, Корея, Германия, Сингапур , а сегодня и Китай. Кстати, в этой работе нельзя недооценить влияние современного искусства.



Основные направления деятельности в реализации стратегии создания робоэтики
Чтобы не оказаться на обочине грядущей эры ИИ, предлагаем следующие шаги:
  • 1
    Подготовка общественного мнения к необходимости развития робототехники вообще и беспилотников, в частности.
    Планирование и проведения передач на радио и TV, статей в прессе и Интернете,роликов, научно-практических конференций.
  • 2
    Разработка моральных норм регуляции поведения роботов и их хозяев.

    Разработка видов и моделей ответственности за нарушение этих норм.
  • 3
    Дифференцировать субъекты ответственности

    Ответственность должна разделяться между производителем машин, их владельцами и самими роботами.
  • 4
    Для этого необходимо разработка приоритетов в роботоэтике.
    Требование, предложенное Айзеком Азимовым «Не навреди человеку» должно быть конкретизировано с учетом конкретных обстоятельств и условий. Для этого робот должен иметь возможность самостоятельно принимать решение. То есть обладать свободой. Именно свобода воли по И. Канту является основой морали. Понятие «искусственный интеллект» в таком случае заменяется понятием «искусственный разум».
  • 5
    Производители робототехники должны исходить из общечеловеческой морали.
    Робот должен служить человечеству, а не только хозяину. (Нулевое правило этики А.Азимова)
    Возможность использования роботов в узко личностных, классовых, национальных, конфессиональных целях, противоречащим интересам человечества, должна быть заблокирована производителем. В то же время в рамках уже робоэтики должна развиваться профессиональная этика. Причем, если в человеческой этике приоритет за общечеловеческой этикой, то в робоэтике приоритет должен быть за профессиональной (например этика беспилотников может быть основана на одних правилах, а этика роботов-полицейских – на других. Поэтому развивать следует не роботоэтику вообще, а спец этику ИИ (то есть проф.этику)
  • 6
    Исправное состояние и определенное «человеческое» отношение к роботам должно быть гарантировано их хозяевами.
    Если робот – субъект морали, то он требует к себе соответствующего отношения. Кроме того, некоторые правила поведения робота должны оговариваться с его хозяином, под личную ответственность. Должен быть заключен договор с хозяином.

  • 7
    Дискуссия о том, как должен вести себя робот при неизбежности аварии решается существующими моральными и правовыми нормами для людей.
    Причем необходима максимальная детализация системных приоритетов. Например, какие ценности выше, то есть важна общепризнанная иерархизация ценностей. Необходимо составить перечень категорий робоэтики (например, не «добро и зло», а «правильно» и «неправильно» и т.д.)

  • 8
    Должны быть созданы научно-исследовательские коллективы, разрабатывающие нормы поведения роботов в конкретной социокультурной среде, исходя из существующих в конкретной стране законов.


  • 9
    Особенность роботоэтики заключается в чисто рациональном ее характере.
    Здесь отсутствуют низкие человеческие чувства – гнев, ненависть, зависть, алчность, жадность, приводящие к печальным последствиям.

  • 10
    Современный этап развития ИИ актуализирует проблему в первую очередь не столько моральной, сколько правовой ответственности ИИ, так как моральная ответственность возникает лишь со свободой воли, автономией воли. Это вопрос будущего.
    Сегодня по отношению к беспилотникам актуальнее говорить об ответственности вообще, а точнее о юридической ответственности. Здесь, прежде всего, необходимо разобраться с субъектом ответственности. Ответственность – это готовность нести ущерб за принятое решение и совершение поступка.

  • 11
    Ответственность должны делить производитель беспилотников и его хозяин (собственник).


  • 12
    Общие опции должны быть обеспечены производителем (правила А. Азимова плюс специальные опции) а специфические, добавлены хозяином под свою ответственность.
    Перед покупкой беспилотника хозяин кроме психологического должен пройти и «моральное» тестирование на фирме, их продающей, для выяснения и хранения особенностей морально-этических ценностей хозяина беспилотника.

  • 13
    Беспилотник должен быть оснащен средством экстренной связи с хозяином в случае непредвиденных ситуаций.
    Тогда хозяин будет иметь возможность вмешаться в ситуацию, а, следовательно, и нести юридическую ответственность за возможную аварию.

  • 14
    Мораль управляет людьми посредством общественного мнения (уважения, презрения) и саморегуляции (угрызение совести).
    У роботов должен быть создан механизм подобный совести. При нарушении моральных норм, включенных в его память, должен начаться процесс саморазрушения. Кроме штрафов и санкций хозяину запускается еще и процесс саморазрушения робота.

  • 15
    Беспилотники должны быть снабжены системой считки намерений противоположного (рядом находящегося) беспилотника.
    Уже существует система распознавания эмоций (боли) человека искусственным интеллектом. Коммуникация между авто беспилотниками уменьшит количество автоаварий, которых сегодня насчитывается 1,3 млн в год. Сегодня в штате Калифорния США более 40 компаний работают над беспилотниками. Уже более 300 машин-беспилотников созданы там и тестируются.

Должна развиваться виртуальная система (система виртуальной реальности) тестирования взаимодействия беспилотников между собой и человеком с целью дальнейшего переноса результатов в действительность.

Мы надеемся, что предложенные здесь мысли будут началом плодотворной научно-практической дискуссии и заделом для будущей междисциплинарной работы.
Следующую статью мы посвятим проблеме "Ответственность в робоэтике".
Как вам понравилась статья)?
____

Рекомендуем
____

Вас также может заинтересовать