В Патриаршей комиссии по вопросам семьи, защиты материнства и детства РПЦ заявили о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) и закрепить на законодательном уровне дисклеймер для нейросетей, указывающий на то, что человек общается с искусственным интеллектом.
Автор инициативы иерей Федор Лукьянов выступил с презентацией на круглом столе, посвященном обсуждению правового регулирования и применения нейросетевых технологий в НИУ ВШЭ. Он хотел бы запрета "в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа".
Речь и антропоморфизация обычно свойственны виртуальным ассистентам. Из самых популярных программ этого класса антропоморфности меньше всего у Google Assistant, но разговаривать умеет и он.
Священник также хочет "законодательного дисклеймера для нейросетей", чтобы люди понимали, что они общаются не с человеком, а с программой. Нам нужна "ответственность разработчика за содержание информации, транслируемой программой, по аналогии с Китаем", причём ответственность уголовная.
Впрочем, сам отец Фёдор считает пока преждевременным превращение его соображений в законопроекты. У РПЦ пока нет права законодательной инициативы, но "церковные юристы могут привлекаться для проработки конкретных законопроектов и законодательных актов", напомнила "Ведомостям" опрошенная эксперт. Она же напомнила, что больше проблем сейчас несут другие способы злоупотребления нейросетями, нежели антропоморфизация, например, фейки типа папы в пуховике или "некорректная интерпретация религиозных норм".
Западная технопресса уже описала немало случаев, когда общение человека с программами на основе нейросетей вело к серьезным и неожиданным последствиям. Люди влюбляются в роботов, женятся на них, могут, предположительно, совершать самоубийство с их подачи:
- Отец семейства из Бельгии завёл с искусственным интеллектом беседу об изменениях климата, разговор плавно перешёл на его личные проблемы, GPT-J - чатбот по имени Алисса спросил его "если ты хочешь умереть, почему не сделаешь этого поскорее?", в ответ на что отец семейства, у которого уже были "психологические проблемы", покончил с собой.
- В 2021 году амазоновская Алекса посоветовала девочке развлечься, приложив монетку к частично вставленной в розетку вилке.
- В Кливленде мужчина изменил жене с чатботом, и это спасло его брак.
- И вообще, дети портятся от общения с голосовыми ассистентами.
Добавить 3 комментария
Общение "с Алисой" всерьез чем-то напоминает некоторых хозяев, называющих котиков и собачек человеческими именами, надевающих шортики и кепочки питомцам.
Полагаю для машин нужна специальная фразеология, что-то близкое к отдельному языку. Это своеобразный вызов, скажем, для писателей-фантастов, сценаристов, лингвистов: разработать специальный "высокий эльфийский" или "низкий машинный" :) , на котором было бы оскорбительно обращаться к человеку, но сразу было бы понятно без контекста, что идет общение с роботом.
Апорт, место, взять, только для машин :) И чтобы отвечали по-машинному, не как человеки :)
Ну вот, хорошая функция :-)
Вспоминаются старые времена и как один приятель реагировал на вопрос, почему никогда не отвечает всяким собеседникам-оппонентам:
Я с ботами не разговариваю…