Ну как новый… Помните эпизод из фильма «Тот самый Мюнхгаузен»:
«Воспользовавшись своим внешним сходством… коварно овладев его походкой, голосом и даже отпечатками пальцев, подсудимый наивно надеется нас обмануть и заставить узнать в себе нашего дорогого барона».
Так что идея давняя. Однако именно с эволюцией искусственного интеллекта и получением к нему широкого доступа такого рода подделки стали легко и массово исполнимы. Рубиконом стал прошлый, 2024 год, когда производители софта начали предоставлять пользователям по всему миру множество AI-приложений. Вроде, например, Suno AI, посредством которой можно создавать музыкальные AI-каверы, завалившие Сеть, о чем Zakon.kz публиковал ранее статью.
А пока энтузиасты ИИ развлекались невинными забавами (относительно, конечно), эпатируя публику поющей шансон группой Queen и львами в заснеженной сибирской тайге, мошенники изучали, как с помощью искусственного интеллекта залезть в чужой карман.
Все эти обучающиеся большие языковые модели, или нейросети, как еще их называют, то есть тот самый ИИ/AI – для мошенников не более чем новый воровской инструмент.
Криминальных возможностей он дает множество; сейчас же поговорим о, пожалуй, самой простой и в то же время «уловистой» схеме. Итак, к видео, где некий человек что-то говорит, «прикручивается» другая аудиодорожка. Скажем, известный врач на самом деле рассказывал о вреде курения, а в подделке он призывает обращаться в его клинику, обещая легкое исцеление от тяжелого заболевания.
Проблема в том, что эти самые обучающиеся ИИ-приложения «обучились» уже настолько, что позволяют изложить нужные слова похожим голосом и с характерными интонациями, да еще и поменять мимику, чтобы она достоверно отображала артикуляцию.
Короче, клиенты «заглатывают наживку» и переводят мошенникам деньги по указанным реквизитам.
Или такой вот конкретный случай, который произошел совсем недавно. Был выложен ролик, где казахстанский адвокат Таир Назханов якобы предлагает людям обращаться за помощью в тех случаях, когда они нечаянно перевели деньги не туда со своей платежной карты. К слову, добиться возврата средств в такой ситуации – задача действительно трудновыполнимая.
Это был фейк. Мошенники подделали голос юриста в одном из видео с его участием и указали свой счет. Цель все та же: воспользовавшись деловой репутацией спикера, они рассчитывали, что попавшие в безвыходную ситуацию люди поспешат за такой «эксклюзивной» юридической помощью. И расстанутся с деньгами.
Адвокат на различных интернет-площадках сообщил, что это подделка. Но возникает вопрос, а что дальше делать в такой ситуации? Как найти и наказать мошенников? А заодно и у других отбить желание.
Обратиться в полицию? Юрист так и поступил. Вот цитата из его сообщения:
«Полицейские решили, что здесь усматриваются гражданско-правовые отношения и нет оснований правоохранительным органам вмешиваться. Интересное дело, уважаемые граждане. Средь бела дня некие преступники, оплатив рекламу, изготовив фальшивый аккаунт и видеоролик, призывают вносить им деньги за, якобы, услуги. При этом используют мое доброе имя. К кому мне, по мнению полицейских, предъявить иск и о чем? О том, чтобы со мной тоже поделились с незаконной прибыли, что ли?)»
В дальнейшем разговоре выяснились некоторые подробности. С заявлением о покушении на мошенничество он обратился в УВД одного из районов Алматы. С доводами, что это – сфера гражданско-правовых отношений, не согласился (сам юрист!). Тогда его отправили в местную полицейскую службу, т. е. к участковому. Хотя, очевидно, у того нет необходимого доступа к таким базам, чтобы определить, кто и откуда выкладывал поддельный ролик.
Такие возможности и навыки должны быть, судя по информации с официального сайта МВД, у специализированных групп по борьбе с интернет-мошенничеством, созданных во всех регионах Казахстана в рамках пилотного проекта «Киберпол». В южной столице, стало быть – в УВД Алматы.
Однако, повторимся, гражданина с заявлением о кибермошенничестве отправили явно не туда. И вообще, если уж юристу сказали, что «нет оснований правоохранительным органам вмешиваться», то чего ожидать другим…
Всех – в суд
И все же попробуем разобраться, а есть ли у казахстанцев, попавших в аналогичную ситуацию, шанс добиться расследования. Это очень важно: добиваться правды не в гражданском суде, а именно так, чтобы правоохранительные органы завели уголовное дело.
Ведь о «создателях» подделки, по сути, ничего неизвестно. Вычислить их, конечно, можно, но и то не всегда, и уж, конечно, не частному лицу. Поэтому подавать гражданский иск следует уже в рамках уголовного судопроизводства, после того, когда виновных найдет государственная полицейская машина. А до этого у вас суд и исковое заявление не примет, поскольку неизвестен ответчик. К кому претензии?!
Следование данному алгоритму – это, так сказать, базовый лайфхак. Но именно в случае с такими вот подделками посредством ИИ он не работает. Почему?
Если коротко – проблема идентификации. Казалось бы, специально для подобных случаев в Уголовном кодексе существует статья 147 «Нарушение неприкосновенности частной жизни и законодательства РК о персональных данных и их защите».
В частности, в ней есть часть 2:
«Причинение существенного вреда правам и законным интересам лица в результате незаконных сбора и (или) обработки (за исключением распространения) иных персональных данных».
И часть 4, охватывающая как раз распространение.
В данном кейсе имеют место и незаконная обработка персональных данных, и последующее распространение, и существенный вред. А именно, нарушение законных прав человека, к числу которых относится и защита его персональных данных. Государство гарантирует такую защиту, для обеспечения которой, собственно, и был принят Закон РК «О персональных данных и их защите» (что сформулировано в статье 2 Закона).
Вроде все сходится. Но есть проблема.
В отличие от гражданского суда, который обязан принять к рассмотрению любой иск, если тот формально составлен верно (что следует из пунктов 1 и 4 статьи 8 ГПК), правоохранительные органы при возбуждении уголовного дела сначала должны убедиться, а есть ли достаточные для того основания.
Согласно УПК (статье 180), заявление физлица – лишь повод, который орган уголовного преследования обязан принять и зарегистрировать (часть 1 статьи 185 УПК). Но повод, как известно, не причина. Согласно еще одной норме – части 1 статьи 34 УПК – орган уголовного преследования обязан «принять все предусмотренные законом меры к установлению события уголовного правонарушения».
А для «установления события», помимо самого сообщения о преступлении, нужны какие-никакие дополнительные сведения. Если их нет (или полиция полагает, что нет), тогда и рождаются отказы с формулировками типа «здесь усматриваются гражданско-правовые отношения и нет оснований правоохранительным органам вмешиваться».
Что может помешать «установлению события» в данном случае? Да очень просто. Как доказать, что на видео говорите не вы?! И внешность, и голос вполне похожи. Инспектору кому верить: заявителю или собственным глазам и ушам?
Это как если бы кто-то пришел в полицию с заявлением, что он убил сам себя. Но позвольте: вот же, живой! Понимаю, что сравнение немного хромает, но, кстати, с помощью ИИ можно исправить хромоту… шучу.
В общем, изучение подлинности ролика не входит в компетенцию органов на данном этапе. Да и едва ли возможно. А кто может решить вопрос по существу? Правильно – суд. Вот, уважаемый, и обращайтесь с гражданским с иском о возмещении материального и морального вреда.
Или, как в конечном счете официально ответили юристу Назханову:
«… Для решения данного вопроса Вам необходимо обратиться в суд в гражданском порядке согласно нормам статьи 145 ГК РК».
Статья 145 Гражданского кодекса постулирует право лица на собственное изображение.
Однако напомним, что суд иск не примет, потому что неизвестен ответчик. И найти его частному лицу самостоятельно нет никакой возможности. Круг замкнулся.
Впрочем, и в УК, и в КОАП существует еще ответственность за фейки. В частности, статья 274 УК за распространение заведомо ложной информации и статья 456-2 КОАП – за ложную информацию. Здесь не место рассуждать, чем ложь отличается от заведомой лжи (семантически всякая ложь предполагает умысел, а потому всегда – заведомая), есть и более важное отличие для наступления именно уголовной ответственности – причинения обманом существенного вреда.
Если нанесен существенный вред правам и законным интересам граждан или государству, то это уже уголовный кейс. Но в том-то и дело, что вред должен быть нанесен гражданам – а не только лишь пострадавшему от обмана лицу. Это, вообще, статья, стоящая на страже именно общественного порядка. Если же один обманул другого – уголовщины в том нет; разбирайтесь между собой в суде.
Правда, за некоторыми исключениями. Так, можно обвинить изготовителей подделки в мошенничестве: поскольку последнее как раз и формулируется как хищение путем обмана (статья 190 УК). Этот путь, как видим, и был выбран в приведенном случае.
Но тут опять возникает вышеназванная проблема идентификации. Кто кого обманул? Как убедить полицию, что на видео не вы? Может быть, близкие и друзья, и даже старые знакомые и уловят в голосе фальшивые ноты, но инспектор, который вас первый раз видит… Короче, все – в суд!
Закон об искусственном интеллекте
Такова практика. Но, если угодно, проблема и в теории. А именно, действующее законодательство просто еще не успело выработать нормы, которые бы защитили людей от мошенничества с использованием ИИ. И справедливости ради скажем – не только казахстанское, но и во всем мире. Проблема ведь совершенно новая.
Но не будем говорить за весь мир, ограничимся РК. Начнем с того, что само понятие ИИ в отечественном законодательстве не объясняется. Ибо нет соответствующего закона.
Проект такого закона – «Об искусственном интеллекте» – впрочем, совсем недавно, 29 января 2025 года, поступил на рассмотрение Мажилиса. ИИ в документе определяется следующим образом:
«Искусственный интеллект – информационно-коммуникационная технология, позволяющая имитировать или превосходить когнитивные функции человека с целью выполнения интеллектуальных задач и поиска решений».Пп. 1) статьи 1 проекта закона «Об искусственном интеллекте»
Пусть так. Но не столь важна формулировка, как распределение ответственности за действия, связанные с ИИ. Напомним, почему, вообще, законопроект разработали:
«Необходимость правового регулирования искусственного интеллекта и робототехники определяется в первую очередь решением вопроса распределения ответственности за вред, причиненный их действиями, а также решением проблемы определения принадлежности права интеллектуальной собственности на произведения, созданные с участием искусственного интеллекта».Пункт 4.13 Концепции правовой политики РК от 15.10.2021
Логично поэтому, что в главе 5 законопроекта «Государственное регулирование в сфере ИИ» предложены две статьи, соответственно посвященные данным вопросам. Статья 23 регулирует право интеллектуальной собственности на произведения, созданные с использованием систем искусственного интеллекта. А статья 24 – вопросы возмещения вреда, который причинен системами ИИ.
Впрочем, регулируют они эти моменты, мягко говоря, не очень многословно. Буквально – «в соответствии с законодательством РК об авторском праве и смежных правах» и Гражданским кодексом. При этом в данные документы никакие поправки, связанные именно с ИИ, не внесены.
А это значит, что кейсы по перечисленным двум фундаментальным вопросам будут решаться с применением общих положений об интеллектуальной собственности и возмещении вреда. Тоже, конечно, какой-то подход.
Однако он не предусматривает определения ответственности за такие правонарушения, о которых идет речь в рассматриваемых случаях. При этом очевидно, что в дальнейшем число кейсов, когда мошенники (а может, конкуренты, или просто интернет-хулиганы) с помощью ИИ будут незаконно обрабатывать персональные данные людей и таким образом изготавливать фейки, многократно возрастет.
Очевидно, эту проблему, когда она станет массовой (да, собственно, уже становится) надо как-то решать. Возможно, в статью 147 УК следует добавить часть, посвященную незаконной обработке персональных данных именно с использованием ИИ. И тогда очевидное сходство заявителей с героями фальшивых «видосов» будет рассматриваться не как причина для отказа, а как квалифицированный состав, за который полагается более строгое наказание.
Есть и другой путь: оставить подобные деликты в сфере гражданского судопроизводства, но предусмотреть ответственность производителей: всех этих Open AI, Google и прочих. Не исключено, в будущем в зарубежных юрисдикциях (в США, например) государство обяжет их отвечать за художества своих пользователей. А уж компании, в свою очередь, смогут обратиться к виновным с иском (регрессным требованием). Найти своих клиентов тем труда не составит.
Схема примерно та же, что действует в отношениях между пассажирами, перевозчиками и аэропортами. Но здесь возникает другая проблема: как определить компанию-производителя, которых становится все больше? Да и наличие границ между юрисдикциями тоже, мягко говоря, не упрощает ситуацию.
В любом случае, это дело будущего, к сожалению. Но формулирование проблемы – это начало пути к ее решению.