Новости Молодечно и Молодечненского района

Ловушки цифровой эпохи: как мошенники воссоздают голос и внешность ваших знакомых, рассказали в СК

  • 2025-11-05 08:42:09

Начальник управления цифровизации главного управления цифрового развития предварительного следствия Следственного комитета (СК) Петр Зарецкий рассказал корреспонденту БЕЛТА о том, как мошенники используют искусственный интеллект для совершения преступлений.



"Влияние искусственного интеллекта на безопасность личности, общества и государства носит двойственный характер. Правоохранительные и иные госорганы большинства стран активно используют ИИ-системы для укрепления правопорядка, профилактики и расследования преступлений, а также для повышения эффективности своей работы. Такие технологии, как распознавание лиц и автомобильных номеров, преобразование речи в текст и улучшение качества аудио- и видео материалов доказали свою высокую эффективность в работе отечественных "электронных стражей порядка", - рассказал Петр Зарецкий.

Но есть и другая сторона медали. "Криминальные структуры также активно осваивают искусственный интеллект, находя ему применение в преступных целях. Так, в Беларуси были зарегистрированы преступления, основанные на технологии deep-fake: мошенники с помощью нейросетей создавали голос и видеооблик родственника жертвы, что заставляло людей передавать им значительные средства. Другой метод - масштабная рассылка в интернете рекламы с поддельными обращениями руководителей, представителей бизнеса и публичных лиц, заманивающих в финансовые пирамиды", - подчеркнул представитель СК. 

И это характерно не только для Беларуси. "Искусственный интеллект открывает новые возможности для преступной деятельности. В мире фиксируются случаи, когда с помощью фальшивых видео злоумышленники успешно проходят проверки банковских антифрод-систем. Автоматизация достигает такого уровня, что мошеннические кол-центры работают на основе ИИ, который самостоятельно ведет диалоги с десятками абонентов, вычисляет наиболее уязвимых и лишь в критический момент передает разговор реальному аферисту. При этом современные технологии резко снизили требуемый для киберпреступлений уровень навыков: создание фишингового сайта-двойника теперь возможно за несколько часов работы с ChatGPT. Растет и применение ИИ в таких опасных сферах, как разработка компьютерных вирусов, генерация детской порнографии и изготовление компрометирующих фейковых материалов", - отметил начальник управления. 

Как обезопасить себя от преступных уловок, созданных с помощью ИИ? "В современном мире к любому медиаконтенту следует относиться с крайним недоверием. Принцип "не верь глазам своим" стал актуальным как никогда. Представьте: во время видеозвонка ваша бабушка со слезами умоляет срочно передать ей деньги через курьера. Высока вероятность, что это мошенник. Подлинность подобных ситуаций легко проверить: просто перезвоните близкому человеку по известному вам номеру или предложите встретиться лично. Если собеседник начнет уклоняться от встречи - это верный признак обмана", - подчеркнул Петр Зарецкий. 

Он также указал на то, что для копирования голоса или создания видеодвойника, необходим исходный материал, которого современные молодые люди (да и не только молодые) оставляют в сети слишком много. "Ваша цифровая безопасность находится в обратной зависимости от объема личной информации, доступной в сети. Чем меньше данных о вас известно интернету, тем выше ваша защищенность", - резюмировал представитель СК.