Этико-философские проблемы проектирования искусственного морального агента

Авторы

  • Андрей Геннадьевич Игнатьев Национальный исследовательский университет «Высшая школа экономики» https://orcid.org/0000-0003-4256-0850

DOI:

https://doi.org/10.21146/2074-4870-2024-24-1-87-100

Ключевые слова:

искусственный интеллект, искусственный моральный агент, мораль­ное агентство, этика в области искусственного интеллекта, сознание, разум, интел­лект, субъектность, вычислительный моральный квазиагент, конвергентный (гибрид­ный) моральный агент

Аннотация

В статье рассмотрены объективные предпосылки и основания для создания искус­ственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем ис­кусственного интеллекта (ИИ) в обладании субъектностью, необходимой для приня­тия моральных решений. Представлены подходы к понятию «искусственный мораль­ный агент», рассмотрены некоторые концепции т.н.«машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослежива­ется во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научно-экспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятель­ности технической реализации универсального, человекоподобного ИМА со способ­ностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (com­putational moral quasi-agent), а когда решения принимаются на основе человеко-ма­шинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической
базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального под­хода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в опреде­ленной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.

Биография автора

  • Андрей Геннадьевич Игнатьев , Национальный исследовательский университет «Высшая школа экономики»

    аспирант

Загрузки

Опубликован

2024-07-10

Выпуск

Раздел

ЭТИКА И ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Как цитировать

Этико-философские проблемы проектирования искусственного морального агента. (2024). Этическая мысль | Ethical Thought, 24(1), 87-100. https://doi.org/10.21146/2074-4870-2024-24-1-87-100