Новый вид мошенничества с использованием ИИ: что делать, если «украли»… вас

Представьте: вы – известное лицо. И вот видите в интернете ролик, где вы же произносите слова, которые никогда не говорили. Рекламируете, например, некую услугу и даете адрес для оплаты. Мошенничество с помощью ИИ – новый тренд, который добрался и до РК. Как реагировать, выяснял Zakon.kz.

Ну как новый… Помните эпизод из фильма «Тот самый Мюнхгаузен»:

«Воспользовавшись своим внешним сходством… коварно овладев его походкой, голосом и даже отпечатками пальцев, подсудимый наивно надеется нас обмануть и заставить узнать в себе нашего дорогого барона».

 

Так что идея давняя. Однако именно с эволюцией искусственного интеллекта и получением к нему широкого доступа такого рода подделки стали легко и массово исполнимы. Рубиконом стал прошлый, 2024 год, когда производители софта начали предоставлять пользователям по всему миру множество AI-приложений. Вроде, например, Suno AI, посредством которой можно создавать музыкальные AI-каверы, завалившие Сеть, о чем Zakon.kz публиковал ранее статью.

А пока энтузиасты ИИ развлекались невинными забавами (относительно, конечно), эпатируя публику поющей шансон группой Queen и львами в заснеженной сибирской тайге, мошенники изучали, как с помощью искусственного интеллекта залезть в чужой карман.

Все эти обучающиеся большие языковые модели, или нейросети, как еще их называют, то есть тот самый ИИ/AI – для мошенников не более чем новый воровской инструмент.

Криминальных возможностей он дает множество; сейчас же поговорим о, пожалуй, самой простой и в то же время «уловистой» схеме. Итак, к видео, где некий человек что-то говорит, «прикручивается» другая аудиодорожка. Скажем, известный врач на самом деле рассказывал о вреде курения, а в подделке он призывает обращаться в его клинику, обещая легкое исцеление от тяжелого заболевания.

Проблема в том, что эти самые обучающиеся ИИ-приложения «обучились» уже настолько, что позволяют изложить нужные слова похожим голосом и с характерными интонациями, да еще и поменять мимику, чтобы она достоверно отображала артикуляцию.

Короче, клиенты «заглатывают наживку» и переводят мошенникам деньги по указанным реквизитам.

Или такой вот конкретный случай, который произошел совсем недавно. Был выложен ролик, где казахстанский адвокат Таир Назханов якобы предлагает людям обращаться за помощью в тех случаях, когда они нечаянно перевели деньги не туда со своей платежной карты. К слову, добиться возврата средств в такой ситуации – задача действительно трудновыполнимая.

Это был фейк. Мошенники подделали голос юриста в одном из видео с его участием и указали свой счет. Цель все та же: воспользовавшись деловой репутацией спикера, они рассчитывали, что попавшие в безвыходную ситуацию люди поспешат за такой «эксклюзивной» юридической помощью. И расстанутся с деньгами.

Адвокат на различных интернет-площадках сообщил, что это подделка. Но возникает вопрос, а что дальше делать в такой ситуации? Как найти и наказать мошенников? А заодно и у других отбить желание.

Обратиться в полицию? Юрист так и поступил. Вот цитата из его сообщения:

«Полицейские решили, что здесь усматриваются гражданско-правовые отношения и нет оснований правоохранительным органам вмешиваться. Интересное дело, уважаемые граждане. Средь бела дня некие преступники, оплатив рекламу, изготовив фальшивый аккаунт и видеоролик, призывают вносить им деньги за, якобы, услуги. При этом используют мое доброе имя. К кому мне, по мнению полицейских, предъявить иск и о чем? О том, чтобы со мной тоже поделились с незаконной прибыли, что ли?)»

 

В дальнейшем разговоре выяснились некоторые подробности. С заявлением о покушении на мошенничество он обратился в УВД одного из районов Алматы. С доводами, что это – сфера гражданско-правовых отношений, не согласился (сам юрист!). Тогда его отправили в местную полицейскую службу, т. е. к участковому. Хотя, очевидно, у того нет необходимого доступа к таким базам, чтобы определить, кто и откуда выкладывал поддельный ролик.

Такие возможности и навыки должны быть, судя по информации с официального сайта МВД, у специализированных групп по борьбе с интернет-мошенничеством, созданных во всех регионах Казахстана в рамках пилотного проекта «Киберпол». В южной столице, стало быть – в УВД Алматы.

Однако, повторимся, гражданина с заявлением о кибермошенничестве отправили явно не туда. И вообще, если уж юристу сказали, что «нет оснований правоохранительным органам вмешиваться», то чего ожидать другим…

Всех – в суд

И все же попробуем разобраться, а есть ли у казахстанцев, попавших в аналогичную ситуацию, шанс добиться расследования. Это очень важно: добиваться правды не в гражданском суде, а именно так, чтобы правоохранительные органы завели уголовное дело.

Ведь о «создателях» подделки, по сути, ничего неизвестно. Вычислить их, конечно, можно, но и то не всегда, и уж, конечно, не частному лицу. Поэтому подавать гражданский иск следует уже в рамках уголовного судопроизводства, после того, когда виновных найдет государственная полицейская машина. А до этого у вас суд и исковое заявление не примет, поскольку неизвестен ответчик. К кому претензии?!

Следование данному алгоритму – это, так сказать, базовый лайфхак. Но именно в случае с такими вот подделками посредством ИИ он не работает. Почему?

Если коротко – проблема идентификации. Казалось бы, специально для подобных случаев в Уголовном кодексе существует статья 147 «Нарушение неприкосновенности частной жизни и законодательства РК о персональных данных и их защите».

В частности, в ней есть часть 2:

«Причинение существенного вреда правам и законным интересам лица в результате незаконных сбора и (или) обработки (за исключением распространения) иных персональных данных».

 

И часть 4, охватывающая как раз распространение.

В данном кейсе имеют место и незаконная обработка персональных данных, и последующее распространение, и существенный вред. А именно, нарушение законных прав человека, к числу которых относится и защита его персональных данных. Государство гарантирует такую защиту, для обеспечения которой, собственно, и был принят Закон РК «О персональных данных и их защите» (что сформулировано в статье 2 Закона).

Вроде все сходится. Но есть проблема.

В отличие от гражданского суда, который обязан принять к рассмотрению любой иск, если тот формально составлен верно (что следует из пунктов 1 и 4 статьи 8 ГПК), правоохранительные органы при возбуждении уголовного дела сначала должны убедиться, а есть ли достаточные для того основания.

Согласно УПК (статье 180), заявление физлица – лишь повод, который орган уголовного преследования обязан принять и зарегистрировать (часть 1 статьи 185 УПК). Но повод, как известно, не причина. Согласно еще одной норме – части 1 статьи 34 УПК – орган уголовного преследования обязан «принять все предусмотренные законом меры к установлению события уголовного правонарушения».

А для «установления события», помимо самого сообщения о преступлении, нужны какие-никакие дополнительные сведения. Если их нет (или полиция полагает, что нет), тогда и рождаются отказы с формулировками типа «здесь усматриваются гражданско-правовые отношения и нет оснований правоохранительным органам вмешиваться».

Что может помешать «установлению события» в данном случае? Да очень просто. Как доказать, что на видео говорите не вы?! И внешность, и голос вполне похожи. Инспектору кому верить: заявителю или собственным глазам и ушам?

Это как если бы кто-то пришел в полицию с заявлением, что он убил сам себя. Но позвольте: вот же, живой! Понимаю, что сравнение немного хромает, но, кстати, с помощью ИИ можно исправить хромоту… шучу.

В общем, изучение подлинности ролика не входит в компетенцию органов на данном этапе. Да и едва ли возможно. А кто может решить вопрос по существу? Правильно – суд. Вот, уважаемый, и обращайтесь с гражданским с иском о возмещении материального и морального вреда.

Или, как в конечном счете официально ответили юристу Назханову:

«… Для решения данного вопроса Вам необходимо обратиться в суд в гражданском порядке согласно нормам статьи 145 ГК РК».

 

Статья 145 Гражданского кодекса постулирует право лица на собственное изображение.

Однако напомним, что суд иск не примет, потому что неизвестен ответчик. И найти его частному лицу самостоятельно нет никакой возможности. Круг замкнулся.

Впрочем, и в УК, и в КОАП существует еще ответственность за фейки. В частности, статья 274 УК за распространение заведомо ложной информации и статья 456-2 КОАП – за ложную информацию. Здесь не место рассуждать, чем ложь отличается от заведомой лжи (семантически всякая ложь предполагает умысел, а потому всегда – заведомая), есть и более важное отличие для наступления именно уголовной ответственности – причинения обманом существенного вреда.

Если нанесен существенный вред правам и законным интересам граждан или государству, то это уже уголовный кейс. Но в том-то и дело, что вред должен быть нанесен гражданам – а не только лишь пострадавшему от обмана лицу. Это, вообще, статья, стоящая на страже именно общественного порядка. Если же один обманул другого – уголовщины в том нет; разбирайтесь между собой в суде.

Правда, за некоторыми исключениями. Так, можно обвинить изготовителей подделки в мошенничестве: поскольку последнее как раз и формулируется как хищение путем обмана (статья 190 УК). Этот путь, как видим, и был выбран в приведенном случае.

Но тут опять возникает вышеназванная проблема идентификации. Кто кого обманул? Как убедить полицию, что на видео не вы? Может быть, близкие и друзья, и даже старые знакомые и уловят в голосе фальшивые ноты, но инспектор, который вас первый раз видит… Короче, все – в суд!

Закон об искусственном интеллекте

Такова практика. Но, если угодно, проблема и в теории. А именно, действующее законодательство просто еще не успело выработать нормы, которые бы защитили людей от мошенничества с использованием ИИ. И справедливости ради скажем – не только казахстанское, но и во всем мире. Проблема ведь совершенно новая.

Но не будем говорить за весь мир, ограничимся РК. Начнем с того, что само понятие ИИ в отечественном законодательстве не объясняется. Ибо нет соответствующего закона.

Проект такого закона – «Об искусственном интеллекте» – впрочем, совсем недавно, 29 января 2025 года, поступил на рассмотрение Мажилиса. ИИ в документе определяется следующим образом:

«Искусственный интеллект – информационно-коммуникационная технология, позволяющая имитировать или превосходить когнитивные функции человека с целью выполнения интеллектуальных задач и поиска решений».Пп. 1) статьи 1 проекта закона «Об искусственном интеллекте»

 

Пусть так. Но не столь важна формулировка, как распределение ответственности за действия, связанные с ИИ. Напомним, почему, вообще, законопроект разработали:

«Необходимость правового регулирования искусственного интеллекта и робототехники определяется в первую очередь решением вопроса распределения ответственности за вред, причиненный их действиями, а также решением проблемы определения принадлежности права интеллектуальной собственности на произведения, созданные с участием искусственного интеллекта».Пункт 4.13 Концепции правовой политики РК от 15.10.2021

 

Логично поэтому, что в главе 5 законопроекта «Государственное регулирование в сфере ИИ» предложены две статьи, соответственно посвященные данным вопросам. Статья 23 регулирует право интеллектуальной собственности на произведения, созданные с использованием систем искусственного интеллекта. А статья 24 – вопросы возмещения вреда, который причинен системами ИИ.

Впрочем, регулируют они эти моменты, мягко говоря, не очень многословно. Буквально – «в соответствии с законодательством РК об авторском праве и смежных правах» и Гражданским кодексом. При этом в данные документы никакие поправки, связанные именно с ИИ, не внесены.

А это значит, что кейсы по перечисленным двум фундаментальным вопросам будут решаться с применением общих положений об интеллектуальной собственности и возмещении вреда. Тоже, конечно, какой-то подход.

Однако он не предусматривает определения ответственности за такие правонарушения, о которых идет речь в рассматриваемых случаях. При этом очевидно, что в дальнейшем число кейсов, когда мошенники (а может, конкуренты, или просто интернет-хулиганы) с помощью ИИ будут незаконно обрабатывать персональные данные людей и таким образом изготавливать фейки, многократно возрастет.

Очевидно, эту проблему, когда она станет массовой (да, собственно, уже становится) надо как-то решать. Возможно, в статью 147 УК следует добавить часть, посвященную незаконной обработке персональных данных именно с использованием ИИ. И тогда очевидное сходство заявителей с героями фальшивых «видосов» будет рассматриваться не как причина для отказа, а как квалифицированный состав, за который полагается более строгое наказание.

Есть и другой путь: оставить подобные деликты в сфере гражданского судопроизводства, но предусмотреть ответственность производителей: всех этих Open AI, Google и прочих. Не исключено, в будущем в зарубежных юрисдикциях (в США, например) государство обяжет их отвечать за художества своих пользователей. А уж компании, в свою очередь, смогут обратиться к виновным с иском (регрессным требованием). Найти своих клиентов тем труда не составит.

Схема примерно та же, что действует в отношениях между пассажирами, перевозчиками и аэропортами. Но здесь возникает другая проблема: как определить компанию-производителя, которых становится все больше? Да и наличие границ между юрисдикциями тоже, мягко говоря, не упрощает ситуацию.

В любом случае, это дело будущего, к сожалению. Но формулирование проблемы – это начало пути к ее решению.