В Патриаршей комиссии по вопросам семьи, защиты материнства и детства РПЦ заявили о необходимости установить запрет на антропоморфизацию программ (перенесение человеческого образа и его свойств на неодушевленные предметы) и закрепить на законодательном уровне дисклеймер для нейросетей, указывающий на то, что человек общается с искусственным интеллектом.
Автор инициативы иерей Федор Лукьянов выступил с презентацией на круглом столе, посвященном обсуждению правового регулирования и применения нейросетевых технологий в НИУ ВШЭ. Он хотел бы запрета "в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа".
Речь и антропоморфизация обычно свойственны виртуальным ассистентам. Из самых популярных программ этого класса антропоморфности меньше всего у Google Assistant, но разговаривать умеет и он.
Священник также хочет "законодательного дисклеймера для нейросетей", чтобы люди понимали, что они общаются не с человеком, а с программой. Нам нужна "ответственность разработчика за содержание информации, транслируемой программой, по аналогии с Китаем", причём ответственность уголовная.
Впрочем, сам отец Фёдор считает пока преждевременным превращение его соображений в законопроекты. У РПЦ пока нет права законодательной инициативы, но "церковные юристы могут привлекаться для проработки конкретных законопроектов и законодательных актов", напомнила "Ведомостям" опрошенная эксперт. Она же напомнила, что больше проблем сейчас несут другие способы злоупотребления нейросетями, нежели антропоморфизация, например, фейки типа папы в пуховике или "некорректная интерпретация религиозных норм".
Западная технопресса уже описала немало случаев, когда общение человека с программами на основе нейросетей вело к серьезным и неожиданным последствиям. Люди влюбляются в роботов, женятся на них, могут, предположительно, совершать самoубийство с их подачи:
Отец семейства из Бельгии завёл с искусственным интеллектом беседу об изменениях климата, разговор плавно перешёл на его личные проблемы, GPT-J - чатбот по имени Алисса спросил его "если ты хочешь умереть, почему не сделаешь этого поскорее?", в ответ на что отец семейства, у которого уже были "психологические проблемы", покончил с собой.
В 2021 году амазоновская Алекса посоветовала девочке развлечься, приложив монетку к частично вставленной в розетку вилке.
В Кливленде мужчина изменил жене с чатботом, и это спасло его брак.
И вообще, дети портятся от общения с голосовыми ассистентами.