РПЦ хочет запретить Алису, Марусю, Сири, Олега и прочих

В Патриаршей комиссии по вопросам семьи, защиты материнства и детства РПЦ заявили о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) и закрепить на законодательном уровне дисклеймер для нейросетей, указывающий на то, что человек общается с искусственным интеллектом.

Автор инициативы иерей Федор Лукьянов выступил с презентацией на круглом столе, посвященном обсуждению правового регулирования и применения нейросетевых технологий в НИУ ВШЭ. Он хотел бы запрета "в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа".

Речь и антропоморфизация обычно свойственны виртуальным ассистентам. Из самых популярных программ этого класса антропоморфности меньше всего у Google Assistant, но разговаривать умеет и он.

Священник также хочет "законодательного дисклеймера для нейросетей", чтобы люди понимали, что они общаются не с человеком, а с программой. Нам нужна "ответственность разработчика за содержание информации, транслируемой программой, по аналогии с Китаем", причём ответственность уголовная.

Впрочем, сам отец Фёдор считает пока преждевременным превращение его соображений в законопроекты. У РПЦ пока нет права законодательной инициативы, но "церковные юристы могут привлекаться для проработки конкретных законопроектов и законодательных актов", напомнила "Ведомостям" опрошенная эксперт. Она же напомнила, что больше проблем сейчас несут другие способы злоупотребления нейросетями, нежели антропоморфизация, например, фейки типа папы в пуховике или "некорректная интерпретация религиозных норм".

Западная технопресса уже описала немало случаев, когда общение человека с программами на основе нейросетей вело к серьезным и неожиданным последствиям. Люди влюбляются в роботов, женятся на них, могут, предположительно, совершать самоубийство с их подачи:

  • Отец семейства из Бельгии завёл с искусственным интеллектом беседу об изменениях климата, разговор плавно перешёл на его личные проблемы, GPT-J - чатбот по имени Алисса спросил его "если ты хочешь умереть, почему не сделаешь этого поскорее?", в ответ на что отец семейства, у которого уже были "психологические проблемы", покончил с собой.
  • В 2021 году амазоновская Алекса посоветовала девочке развлечься, приложив монетку к частично вставленной в розетку вилке.
  • В Кливленде мужчина изменил жене с чатботом, и это спасло его брак.
  • И вообще, дети портятся от общения с голосовыми ассистентами.

Добавить 3 комментария

  • Ответить

    Общение "с Алисой" всерьез чем-то напоминает некоторых хозяев, называющих котиков и собачек человеческими именами, надевающих шортики и кепочки питомцам.

    Полагаю для машин нужна специальная фразеология, что-то близкое к отдельному языку. Это своеобразный вызов, скажем, для писателей-фантастов, сценаристов, лингвистов: разработать специальный "высокий эльфийский" или "низкий машинный" :) , на котором было бы оскорбительно обращаться к человеку, но сразу было бы понятно без контекста, что идет общение с роботом.

    Апорт, место, взять, только для машин :) И чтобы отвечали по-машинному, не как человеки :)

  • Ответить

    Вспоминаются старые времена и как один приятель реагировал на вопрос, почему никогда не отвечает всяким собеседникам-оппонентам:

    Я с ботами не разговариваю…