Шалость не удалась: в Госдуме предложили сажать в тюрьму за дипфейки

Шалость не удалась: в Госдуме предложили сажать в тюрьму за дипфейки

В России может появиться уголовное наказание за совершение преступлений с использованием дипфейков. С такой инициативой выступили в Госдуме. Наказывать будут за кражу и клевету, осуществленные с применением технологий по созданию фальшивых изображений или аудио. Новая норма является актуальной в современных реалиях, однако при ее реализации могут возникнуть сложности с доказательством использования дипфейк-технологий, полагают эксперты. Большая часть злоумышленников при этом находится за рубежом, для них уголовная ответственность серьезной угрозы не представляет. «Известия» узнали, как будут наказывать злоумышленников.

Наказание за подделку
За кражи и клевету с использованием дипфейк-технологии предложили сажать в тюрьму. С такой инициативой выступили в Госдуме. Законопроект, предлагающий внести поправки в Уголовный кодекс РФ, имеется в распоряжении ТАСС.

Дополнить новым признаком преступления хотят статьи «Клевета», «Мошенничество», «Кража», «Вымогательство», «Мошенничество в сфере компьютерной информации» и «Причинение имущественного ущерба путем обмана или злоупотребления доверием». Из документа следует, что за клевету, совершенную с использованием фальсифицированных фото-, видео- и аудиофайлов, имитирующих потерпевшего, будут грозить штраф в размере до 1,5 млн рублей либо лишение свободы на срок до двух лет.За мошенничество с использованием дипфейков наказание будет жестче: штраф до 400 тыс. рублей либо шесть лет тюрьмы.

В пояснительной записке к законопроекту указывается, что развитие компьютерных технологий привело к появлению новых возможностей по созданию данных, «искусственно воссоздающих несуществующие события». Подделывали фотографии мошенники и раньше, однако сегодня набор инструментов существенно расширился, дополнившись нейросетями и искусственным интеллектом. С помощью дипфейков и цифровых масок можно создать подделки, которые неспециалисту практически невозможно отличить от реальности, подчеркивается в документе.

При этом в ряде ситуаций изображение гражданина или его голос могут выступать в качестве биометрических персональных данных и использоваться для идентификации.

Между тем в правительстве РФ отметили, что в современном отраслевом законодательстве вопросы использования технологий подмены личности не урегулированы. Из-за этого может сформироваться некорректная правоприменительная практика, в связи с чем в кабмине рекомендовали доработать документ. После учета необходимых корректировок его внесут в Госдуму.

Принцип работы
Технология искусственного интеллекта дипфейк (от англ. deepfake) — это синтезированное аудиосообщение или видеоизображение, которое создается для введения в заблуждение, шутки или обмана одного или нескольких человек, объясняет бизнес-консультант по информационной безопасности Positive Technologies Алексей Лукацкий. Как правило, оно генерируется на базе собранного набора видео или голосовых сообщений потенциальной жертвы.

Для создания дипфейка используются алгоритмы машинного обучения — генеративно-состязательные сети (generative adversarial network), указывает руководитель R&D-лаборатории Центра технологий кибербезопасности группы компаний «Солар» Максим Бузинов.— Фактически, это алгоритм на базе двух нейронных сетей. Генеративная формирует изображение, состязательная выявляет правильные или неправильные изображения, которые отличаются от образа человека. Соответственно, генеративная нейросеть должна сформировать дипфейк таким образом, чтобы состязательная не отличила изображение от оригинала, — отмечает он.

Доступ к нейросетям, как правило, возможен через веб-сервисы или приложения, утверждает ведущий исследователь данных «Лаборатории Касперского» Дмитрий Аникин.

— По мере развития алгоритмов результат становится всё убедительнее, и теперь его достаточно сложно отличить от подлинных материалов, — подчеркивает он.

Опасный инструмент
В России дипфейки начинают набирать популярность, предупреждает Алексей Лукацкий. Их активно используют не только ради розыгрышей, но и в различных мошеннических атаках.

— Это звонки от якобы служб безопасности банков, правоохранительных органов, от различных государственных учреждений, в том числе видеозвонки с подменой настоящего и достаточно известного чиновника, — перечисляет эксперт.

Также злоумышленники могут притворятся известными личностями и звездами шоу-бизнеса. Например, для того чтобы продвигать сомнительные криптовалютные проекты.

Набирают популярность и голосовые дипфейки, отмечает Дмитрий Аникин. Их используют для мошенничества в мессенджерах.

— Аккаунт пользователя крадется, а затем его данные используются для создания голосовых, а иногда и визуальных подделок с целью обмана и кражи средств у контактов жертвы, — указывает эксперт.

Дипфейк в данном случае, по его словам, выступает расширением существующих схем социального инжиниринга, что позволяет сильнее усыпить бдительность жертвы.

— Кроме того, в последние дни стала распространяться схема с подмененными сообщениями официальных лиц, связанных с происходящим вдоль российско-украинской границы. Такого рода дипфейки, распространяемые в Telegram-каналах и соцсетях, создают большую проблему для жителей приграничных регионов и сеют панику среди населения, — рассказывает Лукацкий.

Важное предложение
В современных реалиях инициатива по введению уголовной ответственности за использование дипфейков представляется весьма актуальной и необходимой, убежден управляющий партнер компании «Русяев и партнеры», юрист Илья Русяев.

— Стремительное развитие технологий искусственного интеллекта и нейросетей привело к тому, что создание убедительных подделок видео- и аудиоматериалов стало доступно практически любому пользователю. Это открывает широкие возможности для злоупотреблений и совершения различных противоправных действий с использованием чужого образа или голоса, — признает эксперт.

С этим согласен и практикующий адвокат Московской палаты адвокатов, член Ассоциации юристов России Шон Бетрозов.

— Использование поддельных изображений и голосов для распространения клеветы или мошенничества не только наносит серьезный ущерб репутации жертвы, но и может привести к финансовым потерям или даже к угрозе жизни, — допускает он.

Мошенники в Telegram-каналах, используя рассылки и Chat GPT, не только с легкостью вводят в заблуждение, но и производят хищения, вымогательства, кражу имущества, согласна основатель юридической компании «Деломант Групп» Таисия Вепренцева.

— Поэтому, правовое поле, соответственно, должно идти в ногу со временем и пресекать и наказывать за деяния подобного рода, — уверена она.

Иллюстрация к статье: Яндекс.Картинки

Читайте также

Оставить комментарий

Вы можете использовать HTML тэги: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>