Распределенная моральная ответственность в сфере искусственного интеллекта

Авторы

DOI:

https://doi.org/10.21146/2074-4870-2024-24-1-129-143

Ключевые слова:

этика искусственного интеллекта, распределенное познание, распре­деленная ответственность, социотехническая система, агентность, объект-ориентиро­ванная мораль

Аннотация

Основной целью статьи является обоснование оптимальности концепции распреде­ленной морали Лучано Флориди для описания модели отношения ответственности в сложных системах «человек – искусственный интеллект» (ИИ). Достаточно высо­кий уровень автономии в функционировании ИИ ставит под вопрос классический ин­струментализм в отношении этой технологии, так как она оказывается способной на принципиально неконтролируемые со стороны человека действия в процессе вы­полнения поставленной перед ней задачи. По этой же причине классическое опреде­ление моральной ответственности постепенно перестает соответствовать действи­тельному положению дел в области разработки ИИ, что зачастую приводит к про­блемам, тормозящим ее развитие. Поэтому в статье осуществляется концептуализа­ция нового, соответствующего типу технологии способа описания отношений ответ­ственности в сфере этики ИИ. Для достижения этой цели ИИ рассматривается как обладающий агентностью участник различных взаимодействий (на основе критериев агентности Флориди), в том числе и социальных, но при этом ему не приписывается подлинная интенциональность, мотивация, осознанность и другие свойства, являю­щиеся необходимыми для атрибутирования агентности в классической модели от­ношения ответственности. Кроме обращения к описанию критериев агентности Флориди, обоснование такого рассмотрения ИИ в статье осуществляется с опорой на концепт текучести Аннамари Мол и Марианы де Лаэт, который разрабатывается ими в том числе и для обозначения способности технологий обладать агентностью без наличия у них свойств, считающихся необходимыми для атрибутирования агент­ности в классической модели описания роли технологий в социальных процессах. Технология ИИ представляется как сложная гетерогенная социотехническая систе­ма, конструируемая как человеческими, так и нечеловеческими агентами. Риск ниве­лирования значимости ответственности в такой системе преодолевается на концеп­туальном уровне посредством адаптации подхода объект-ориентированной морали Флориди. Смена акцента с субъекта действия на объект воздействия наделяет мо­ральной значимостью всю ту сумму морально нейтральных действий, которые со­вершаются агентами в рамках социотехнической системы. Поскольку она производит морально значимые эффекты и воздействия, то выступает и носителем отношения от­ветственности, которое, как показано в статье, распространяется на каждого агента системы в равной мере, интенсифицируя тем самым моральную ответственность в сфере ИИ.

Скачивания

Данные по скачиваниям пока не доступны.

Биографии авторов

  • Андрей Сергеевич Глуховский , Университет ИТМО

    преподаватель

  • Алексей Дмитриевич Дурнев , Университет ИТМО

    преподаватель

  • Дарья Викторовна Чирва , Университет ИТМО

    преподаватель

Загрузки

Опубликован

2024-07-10

Выпуск

Раздел

ЭТИКА И ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Как цитировать

Распределенная моральная ответственность в сфере искусственного интеллекта. (2024). Этическая мысль | Ethical Thought, 24(1), 129-143. https://doi.org/10.21146/2074-4870-2024-24-1-129-143