В Приморье зафиксирована информационная атака на приморские СМИ

Осторожно – дипфейк. Или история о том, как заработать уголовную статью. Это видео создано при помощи нейросети – за основу киберпреступники взяли образ старшего помощника Приморского Следкома Авроры Римской. Схоже всё – глаза, мимика, голос. В Приморском крае зафиксирована информационная атака на приморские СМИ. Цель – разжечь межнациональный конфликт между россиянами и гражданами КНДР.

Татьяна Бондарева, старший аналитик Центра управления регионом:

 Всей недостоверной информации предшествует какой-то крупный информационный повод. В данном случае мы знаем, что с визитом в КНДР поехал наш министр обороны. Поэтому сразу все эти мошенники, можем их так назвать, активизировались. Создали информационный повод искусственно на основе нашей информационной повестки.

Фейковые новости отслеживает Центр управления регионом. Специалисты мониторинга и аналитики информационного пространства Приморья ежедневно, по ключевым словам, ищут недостоверные новости, так называемые «вбросы».

Татьяна Бондарева, старший аналитик Центра управления регионом:

Только за выходные мы зафиксировали более 20 сообщений с охватом более 600 тысяч аудитории.

Также были замечены подделки «Приморской газеты» – на главной странице новость о награждении неких студентов из КНДР. И это тоже фейк. Такого номера не существует, фальшивку выдают шрифт и переносы слов, поэтому всех читателей этой газеты просят обращать внимание на мелочи.

Вадим Кочугов, главный редактор «Приморской газеты»:

Кто-то торопится или хайпануть хочет – не проверяет и выдаёт фейк. Таким образом он распостраняется со скоростью вируса. Очень важно проверять всю информацию, которую вы получаете.

Но подделка газет не так страшна, как подмена личности. Легко ли создать дипфейк? Оказалось, что да.

Валерия Николаева, корреспондент:

Искусственный интеллект не имеет никаких ограничений, и сейчас я, как новичок в этом деле, зашла на первый попавшийся сайт. В интернете их полно. И здесь искусственный интеллект просит загрузить любую фотографию, неважно какого человека, я выбрала себя, и нужно также описать действие, которое хотим в итоге получить. 

Это пример того, как работает одна из версий – качество плохое, картинка нечёткая. Но только представьте, этот функционал находится в руках у киберпреступников.

Даниил Белозёров, эксперт по нейросетям:

При профессиональной работе с нейросетями люди, которые заинтересованы создать иллюзию реальности, могут ее сделать так, что она будет не отличима от реальности. Поэтому отличить настоящую от ненастоящей невозможно. Только за счет критического мышления и за счёт понимания контекста и только за счёт проведения фактчекинга.

Мария Лагунина, координатор медиабратства «Киберволонёры», депутат Думы Владивостока:

Ещё буквально пару лет назад мы не видели такой опасности в создании дипфейков. Мы говорили о том, что от этого точно защищены публичные лица, политики и так далее. Потому что всегда в публичном пространстве можно получить подтверждение той или иной фотографии или видео. Но сегодня мы видим, что с той стороны работают правда профессионалы.

В интернете много сервисов, в которых можно заменять лица, исключительно в развлекательных целях попробовать себя в роли известного певца или танцора. Но за каждой шуткой стоит опасность, и потому приморцам рекомендуют быть предельно внимательными с каждой новостью, которая встречается в информационном пространстве.

Валерия Николаева, Андрей Овчинников, «Панорама»

 

 

Правильных ответов: * Неправильных ответов: *