Фактчекинг своими руками: что это, и как проверить информацию в сети. ФЕЙКИ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ И IT ФЕЙКИ ОБ ОБЩЕСТВЕ Фактчекинг, фактчекер, фактодиды – эти термины когда-то были элементами профессионального сленга журналистов, а теперь перекочевали в лексикон многих пользователей интернета. Относятся они к области проверки информации – умению распознавать ложные сведения или новости. В условиях, когда фейки наводнили медиа-пространство и стали грозным оружием в руках недобросовестных авторов, исследование источников новостей становится необходимым критерием не только для сотрудников СМИ, но и для рядовых читателей. Что такое фактчекинг и зачем он нужен Фактчекинг – это необходимое условие работы в любой редакции, заинтересованной в доверии своих источников информации и аудитории, термин пришел в русский из английского языка и дословно переводится, как «проверка фактов». Собственно, в этом и есть вся его суть. Ранее понятие было привычно в основном журналистам и экспертам, которые по долгу службы должны выпускать в своих материалах информацию на основе принципов объективности, достоверности и беспристрастности. С развитием социальных сетей и других коммуникационных каналов, потребность в проверке информации возникла не только в статьях СМИ, но и читателей материалов new media – авторских площадок в сети. Она продиктована естественным стремлением оградить себя от лживой информации, которая может нанести вред. Еще одна причина, которая делает фактчекинг популярным, – юридическая ответственность за публикацию и распространение фейков. В нашей стране, как и в других, она также предусмотрена и предполагает наказание вплоть до 15 лет лишения свободы.
Можно выделить следующие основные виды фактчекинга контента, который может осуществлять как один человек, так и целая команда специалистов:
Обзор общественно значимых источников
Проверка фактов в новостных статьях, утверждениях политиков, общественных деятелей и других важных фигур для выявления неточностей или предвзятости.
Проверка медиаматериалов
Анализ изображений с целью определения их подлинности, контекста и источника информации, исследование видеоматериалов на предмет монтажа и манипуляции, искажающих их восприятие.
Корректность цитат
Подтверждение правильности цитат и их контекста помогает избежать неправильного толкования, а также приписывания тех или иных фраз тому, кто их никогда не говорил.
Анализ данных
Проверка статистических данных и графиков на достоверность, определение источников и методологии сбора информации.
Анализ заявлений на соответствие документам и законам
Не противоречат ли сообщения, распространяемые в сети, документам и законам.
Подтверждений событий и происшествий
Анализ новостей, связанных с различными событиями и происшествиями — помимо поиска по открытым источникам в сети, фактчекинг может включать работу на месте событий и общение с очевидцами.
Исследование социальных сетей
Мониторинг информации, распространяемой через публикации или репосты.
Факты и фактоиды
Мы живем в эпоху пост правды. Информация, озвученная в эфире телеканала, пресс-релизе, статье или в популярном телеграм-канале, начинает жить своей жизнью, попадая в нужную целевую аудиторию. Факт становится не таким уж и важным, проигрывая более увлекательному фактоиду.
Что такое фактоид? Это противоположность факта. Фактоид – это искаженная информация, опубликованная в медиа и получившая распространение среди аудитории. Озвученный где-либо фактоид часто становится источником целой череды фейков и домыслов. Попадаются на эту удочку не только обычные люди, но иногда даже авторитетные издания.
Зачем в интернете размещают фейки?
Иногда, фейки – это следствие того, что принято называть «человеческий фактор». Особенно актуально это для соцсетей. Люди не проводят фактчекинг, а публикуют новость или слух на основании эмоций, захватывающего контента, а затем его подхватывают другие пользователи и начинают множить дезинформацию.
Совсем другое дело, когда речь идет о целенаправленной публикации фейков. Есть авторы, которые используют такие статьи как инструмент. Речь идет о недобросовестных средствах массовой информации или других информационных площадках, мошенниках и более глобальных структурах. Если говорить о журналистах и блогерах, то они, как правило, гонятся за хайпом, чтобы повысить читаемость своих ресурсов.
Мошенники создают фейки для извлечения финансовой или другой выгоды. При фактчекинге информации самые сложные фейки – материалы подготовленные профессионалами. Из таких «специалистов» нередко формируют целые подразделения, которые работают на то, чтобы одурачить общество, посеять панику, добиться дестабилизации обстановки. Именно по такому принципу работают украинские Центры психологических операций на Украине – ЦИПсО.
Яркий экземпляр подобного псиопа (психологическая операция) – искусственно раздутая шумиха вокруг «ЧВК Редан», новость о которой прокатилась в информационных агентствах и пабликах в начале года. Речь в статьях шла о том, что представителей молодежной субкультуры стравливали с другими молодыми людьми, чтобы вызвать беспорядки в российских городах. Разоблачителям фейков удалось выяснить, что ниточки этих волнений ведут на Украину.
Так фактчекинг помог выявить зарубежную психологическую операцию и предотвратить волнения.
Можно ли обойтись без критического мышления ?
Информационная гигиена – необходимый навык современного человека. Без него трудно представить безопасность в виртуальной и невиртуальной реальности. Большинство из граждан понимают, что не стоит доверять подозрительным статьям, переходить по случайным ссылкам в интернете, вводить свои личные и финансовые данные на сторонних ресурсах. Поэтому, проводить фактчекинг – это уже не обязанность экспертов, но будничная рутина для большинства из нас, обойтись без которой невозможно.
Кто такой фактчекер
Тот, кто занимается проверкой фактов, может считать себя фактчекером. Если раньше этот спектр работы являлся в основном спецификой журналистики, то сегодня фактчекерами себя смело могут считать блоггеры, авторы различных ресурсов в сети и просто читатели.
Инструменты фактчекера
Главный инструмент фактчекера – критическое мышление. При анализе информации важно уметь не поддаваться эмоциям, которые иногда носят массовый характер. Иногда именно этот аспект становится самым трудным в работе.
Что касается «технических» возможностей фактчекинга, то к ним можно отнести:
Поисковые системы – Яндекс, Google и другие
Различные инструменты поиска изображений. В том числе, в поисковиках Яндекс, Google
Социальные сети
Различные базы данных: Госзакупки, СПАРК, ЕГРЮЛ и другие.
Сервисы статистики – ВЦИОМ, Росстат и другие
Ресурсы подтверждения подлинности доменов: SimilarWeb и другие
Ресурсы поиска подлинников видео контента: Deepware и другие
Официальные источники информации: страницы административных организаций, общественных и политических фигур, чья цитата будет иметь вес
Инструменты фактчекера всегда зависят от того, что необходимо проверить. Именно задача диктует выбор для качественного анализа. Поэтому подходить к этому вопросу стоит гибко, руководствуясь главным правилом – всегда уметь поставить под сомнение информацию в том случае, если есть риск того, что перед вами фейк.
Как самому выполнить фактчекинг
Первое правило – оно же инструмент – сомнение. У дезинформации в сети обычно есть характерные признаки. Это апелляция к эмоциям. Чем больше в подозрительной информации отсылок к игре на нервах читателя – тем вероятнее всего, что вы наткнулись на фейк. Кликбейтные заголовки, эпатажные заявления, категоричные обвинения, недосказанность, намеки на провокационный подтекст, отсутствие релевантных подтверждений в виде фото и видео, сомнительные ресурсы – все это признаки фейка.
Стартовая задача фактчекинга, с которой стоит начинать анализ – найти первоисточник. Идеально – авторский контент и того, кто заявил о том, что вызвало ваше сомнение. Или портал, который первый сообщил о чем-либо.
Первоисточниками информации могут быть и различные технические устройства. Например, видеорегистраторы и т.п.
Второе правило – верификация полученных данных. Всегда пытайтесь подтвердить новость или пресс-релиз с помощью двух-трех ссылок на источники. Желательно, если они не будут связаны между собой. Именно поэтому важно узнавать мнение разных сторон, которые связаны с вашей ситуацией. Это позволит избежать пристрастной позиции, которую нередко пытается транслировать один из ваших спикеров.
Третье правило фактчекинга – заручитесь экспертизой. Это может мнение экспертов по теме, научное исследование или ваша собственная проверка с помощью инструментов – баз данных и сетевых ресурсов. Если у вас нет собственной базы экспертов, то поможет сторонняя площадка, где авторы размещают свои вопросы и ищут спикеров по теме. Таким, например, является Pressfeed.
Четвертое правило – используйте соцсети. В них можно раздобыть ценные сопутствующие сведения: видео и фото очевидцев с места происшествий, узнать комментарии людей по резонансной теме. Но при анализе информации необходимо сохранять холодный рассудок и не поддаваться возможной панике.
Пятое правило – узнайте мнение официальных источников. Каким бы скучным ни казалась эта рекомендация, не поленитесь зайти на сайт ведомств или страницы уполномоченных лиц и узнать официальные публикации по вашей теме.
Придерживайтесь устоявшегося алгоритма анализа материалов:
Находите первоисточники статьи.
Обращайте внимание на точность подачи информации: беспристрастность, верное указание имен, названий организаций, должностей, грамотность изложения. Например, документы-фейки часто грешат ошибками в виде неверных должностей и имен подписантов, названий организаций и других ляпов, которые легко проверить на порталах организаций.
Определяйте дату и место. Часто не соответствие поможет вычислить фейк
Анализируйте фото и видео. Проводя фактчекинг, найдите первоначальный источник изображения. Очень часто для создания фейков используют архивные материалы из сетей. Проанализируйте фото на элементы фотошопа.
Всегда ищите полные высказывания спикеров. Вырванная из контекста материала цитата – прекрасный инструмент для «утки» в СМИ и соцсетях
Примеры проведения фактчекинга
В истории журналистики много громких примеров фактчекинга информации. Но мы не будем углубляться в историю, а покажем, как недавно с помощью фейкового контента упомянутые украинские Центры психологических операций попытались дестабилизировать ситуацию в Дагестане на фоне конфликта на Ближнем Востоке.
Итак, в конце октября в украинских телеграм-каналах появились новости о том, что за событиями в аэропорту Махачкалы, где несколько десятков человек устроили беспорядки, стоит ФСБ России. В качестве подтверждения к статьям и постам был прикреплен документ, который должен был убедить читателя в этом.
Но результаты фактчекинга выдали подделку документа с головой.
Во-первых, герб Национального антитеррористического комитета РФ, который указан на бланке, выглядит по-другому. Эту информацию можно проверить на портале организации. Во-вторых, авторы фейка оформили документ с нарушением требований документооборота. Например, в документе видны разные шрифты и неправильное выравнивание текста. В дате над номером – цифры разной величины.
Те, кто придумал фейк, явно торопились, так как некоторые слова в предложениях рассогласованны. Нарушена стилистика делового изложения, которое не допускает использование таких слов, как «замысел». Также в документах четко должно быть прописано, кто такие «ответственные сотрудники» в конкретном случае.
Очень грубая ошибка – добавление при помощи графического редактора печати другого ведомства. Еще один ляп – подписант указан без отчества, что также указывает на фейковость документа.
Что потребовалось для того, чтобы разоблачить этот фейк? Прежде всего, абсурдность заявления и темы статьи, а затем – внимание к оформлению бумаги. Стилистические нарушения бросаются в глаза сразу. Затем видны оформительские помарки. И уже на третьем этапе становятся очевидны грубые ошибки – герб, печать, подпись в материалах. Проводя фактчекинг, найти образцы этих элементов можно в открытых источниках информации, в том числе, на официальных ресурсах ведомств.
Дипфейк: технология, зашедшая слишком далеко.
ФЕЙКИ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ И IT
ДИПФЕЙК
НОВОСТИ О МОШЕННИЧЕСТВЕ
СОЦИАЛЬНАЯ СФЕРА
ИИ
Технология дипфейка за последнее время сделала гигантский шаг вперед. Если изначально она была просто развлекательным инструментом, то теперь ее используют не только во благо. Все больше упоминаний дипфейк получает в свете криминальных и скандальных историй, а также производства дезинформации и черного пиара в политике.
Что понимают под термином «дипфейк»?
Значение слова «дипфейк» восходит к английским deep learning — «глубокое обучение» и fake — «подделка». Часто, когда говорят об этой технологии, то подразумевают, что дипфейк — это когда настоящее лицо человека на видео или фото заменяют другим с помощью искусственного интеллекта (ИИ, или английское AI).
Но в действительности возможности технологии шире: это и подделка голосовых записей, и создание искусственного персонажа с нуля.
В сети масса развлекательный роликов, где, к примеру, вместо Арнольда Шварцнеггера в «Терминаторе» играет Бред Питт, в «Сиянии» снимается Джим Керри, а песню группы «Земляне» исполняет Илон Маск.
Поёт Илон Маск.
Как развивалась технология
Изначально этот инструмент был исключительно на службе искусства. Дипфейки применяли в кино. К примеру, для создания образа Голума из фильма «Властелин колец». Также можно вспомнить историю производства «Аватара», где применялась технология facial motion retargeting. Этот инструмент переносил мимику актеров на трехмерных персонажей.
На сегодняшний момент есть большое количество приложений, где используется технология дипфейк, и доступна она широкому кругу лиц прямо со смартфона.
Для создания подобного контента нужны образцы голоса, а также фото или видео. У знаменитостей, хотят они этого или нет, в силу своей профессиональной деятельности большое количество подобных исходников. И даже если человек не является медийным, то изображения с ним можно найти в его соцсетях, а голосовые сообщения — в мессенджерах.
Позитивное использование технологии.
Дипфейки активно используют в кино, маркетинге, журналистике, арт-проектах и сфере образования. К примеру, компания «Мегафон» сняла рекламу с голливудским актером Брюсом Уиллисом, а точнее, применив дипфейк звезды. Технология помогла снять ролик быстрее и дешевле.
Реклама Мегафона
Также есть большое количество моделей и блогеров, созданных с помощью ИИ. Они не являются реальными людьми, но рекламируют товары и услуги для человека.
Огромное количество примеров использования дипфейков в развлекательных целях. Так, в 2020 году в сети стал популярным ролик, где владелец компании Space X Илон Маск, а точнее его «двойник», пел советский хит «Трава у дома» группы «Земляне». Ролик обрел популярность в связи с тем, что песня связана с космической отраслью, как и деятельность Маска.
Добавим, что персона бизнесмена и создателя соцсети X (бывш. Twitter) была популярна и в контексте современной журналистики. На форуме «Диалог о фейках», который прошел 22 ноября 2023 года в Москве, любой человек мог в режиме реального времени «примерить» лицо предпринимателя при помощи специальной программы. При этом за несколько дней до форума в сети появился ролик, сделанный искусственным интеллектом, в котором двойник Маска приглашал сам себя на форум.
С помощью технологии дипфейк российский президент Владимир Путин поздравил россиян с началом 2024 года на национальных языках.
Аудио с текстом было сгенерировано нейронной сетью, чтобы подстроить мимику под длительность слов и особенности фонетики, был изменен и видеоряд.
Дипфейк!!!
Дипфейки в обучении
Большие перспективы эксперты видят в вопросе использования дипфейка в сфере образования. Директор по науке и технологиям Агентства искусственного интеллекта Роман Душкин отметил, что с помощью технологии дипфейк можно расширить возможности чтения лекций для студентов.
Отметим, что тренд современного образования все больше смешается в сторону видеоформата. Ролики предпочитают больше, чем статьи, инфографику, презентации и книги. Дипфейки, основанные на технологии deep learning (глубокое обучение), в этой связи помогают быстро создать видеокурс.
Так, можно снять материал с преподавателем один раз, а потом нейронная сеть может менять язык, национальность и даже пол наставника. Подобные программы актуальны для корпоративного обучения, когда важно учить сотрудников по одним стандартам.
Темная сторона deepfake
Обучение искусственного интеллекта и расширение его сферы влияния происходит быстро. Дипфейки применяют не только для развлечения и создания полезного контента, технологию полюбили криминальные элементы. К примеру, известного человека могут шантажировать откровенными видеороликами, где используется его лицо. Начало постинга такого контента пришлось на 2017 год. Впоследствии Reddit, Twitter и Pornhub стали блокировать их в случае выявления.
Одним из последних громких случаев стал скандал с американской певицей Тейлор Свифт. 25 января 2024 года в соцсети X (ранее Twitter) были опубликованы изображения эротического характера, сгенерированные ИИ, где главной фигурой стал образ исполнительницы. Один из постов собрал более 45 млн просмотров, прежде чем аккаунт заблокировали. Платформа заявила об абсолютной нетерпимости к подобному контенту. Но тенденция остается «тревожной», как заметил СЕО Microsoft Сатья Наделла.
Помимо эротического контента дипфейки используют и для финансовых афер. Мошенники подделывают голоса, чтобы заставить жертву перевести деньги. Так, в 2019 году злоумышленники убедили работника одной из британских компаний перевести на их счет 240 тысяч долларов. Сделали они это, сгенерировав голос его руководителя.
Технологию голосовых дипфейков мошенники активно используют и в России. Аудио имитируют при помощи специальных программ. Как правило, все образцы голоса и сведения мошенники берут из соцсетей, а готовую подделку с требованием переслать деньги рассылают неопытным пользователям сети, к примеру, пожилым родственникам.
Кроме того, с помощью дипфейк-технологии можно взломать FaceID. Такая система защиты может не отличить реального пользователя от дипфейк-двойника.
Дипфейки стали использовать и в информационных войнах, для создания различного рода подделок, очерняющих политического оппонента, либо влияющих на настроения масс. Сейчас можно смело утверждать, что дипфейки становятся товаром на политическом рынке.
Создавая поддельные видео или изображения политических лидеров, злоумышленники могут подорвать доверие общества к институту демократии и вызвать политическую нестабильность. В крайних случаях дипфейки могут применяться для нагнетания хаоса и создания раскола в обществе.
Но зачастую подделки рассчитаны на эффект внезапности и неопытных пользователей. К примеру, летом прошлого года в ряде регионов РФ на радио и телевидении прозвучало фейковое обращение российского президента Владимира Путина, в котором сообщалось о введении военного положения и всеобщей мобилизации. Ролик разметили в результате взлома сетки вещания. Все тезисы оказались ложными. Целью вброса было посеять панику среди населения.
Инструменты для определения дипфейка.
Большинство дипфейковых роликов можно без труда определить визуально: картинка кажется нечеткой и смазанной, есть мелькания, плохо проработаны глаза и зубы. Изображение на видео «скачет», голос кажется роботизированным и используются неестественные интонации. Машинное обучение заметно и остается местами очень грубым.
Но с развитием технологий подделки стали настолько искусными, что для их верификации нужны специальные программы. К примеру, FakeCatcher от Intel или DeepFake-Detection-SDK. Но и они не всегда показывают достоверные результаты. Так, DeepFake-Detection-SDK определил только с 12 из 20 дипфейков, созданных для анализа. У FakeCatcher показатель выше: 19 из 20.
На российском рынке хорошо зарекомендовала себя система под названием «Зефир». Данное программное обеспечение является разработкой АНО «Диалог Регионы». Оно глубоко исследует данные, идентифицирует поддельный аудиовизуальный контент и выдает процентную вероятность фейка. Благодаря этим алгоритмам уже были распознаны несколько дипфейковых видео с российским лидером.
К примеру, на прямой линии 14 декабря 2023 года президент РФ Владимир Путин получил вопрос от «самого себя». Российский студент использовал технологию дипфейка, что узнать у главы государства о наличии у него двойников и его отношении к возможностям искусственного интеллекта. «Зефир» определил ролик как фейк с вероятностью в 78%. Высокое качество подделки было связано с тем, что студент взял для образца реальное видео с выступления российского лидера.
Дипфейк на В.В.Путина.
Законно ли использовать технологию deepfake.
Поскольку эта цифровая технология очень быстро распространилась не только в кино, но и криминальной среде, встал вопрос о законности ее использования. Из-за того, что это явление новое, законодательство еще не сформировано в полной мере. В российском законодательстве пока нет понятия дипфейк и законов с этим термином. Но есть смежные законы.
Так, согласно статье 152.1 ГК РФ, нельзя использовать изображение гражданина без его на то согласия. Если человек умер, то согласие должны предоставить его родственники. Даже если человек размещает фото или видеоконтент с собой в сети, то это не дает другим людям право использовать эти материалы без согласия.
То есть если при производстве дипфейка использовалось фото гражданина без его согласия, то таким образом нарушается право на охрану такого изображения, что может закончится юридической ответственностью.
Также у человека есть право на защиту чести, достоинства и деловой репутации. Если созданный дипфейк нанес урон деловой репутации и дискредитировал гражданина, то ответственность для нарушителя неминуема. Здесь же можно применить статью 128.1. УК РФ о клевете.
Большую опасность представляют набирающие популярность голосовые подделки, которые часто создают аферисты. С одной стороны, нигде в мире не распространено право собственности на голос. Но с другой стороны, как пояснили в Минцифры РФ, голосовые данные человека являются биометрией и охраняются законом «О персональных данных». Таким образом, использование чужого голоса без согласия человека, которому он принадлежит, может повлечь административную ответственность, поскольку это незаконная обработка персональных данных.
Также в рамках правового поля остается нарушение авторских прав посредством использования дипфейка, а также ответственность предусмотрена за создание недобросовестной и вводящей в заблуждение рекламы. Если обман был за счет использования данной технологии, то это также карается законом. Сейчас в Госдуме рассматривается вопрос о принятии соответствующего закона о дипфейках.
Расширить действующее законодательство в связи с ростом сферы применения нейронных сетей стремятся многие страны. В КНР в 2020 году была введена уголовная ответственность за введение в заблуждение с помощью дипфейков.
А в штате Калифорния в США вступили в силу законы, запрещающие генерировать откровенные кадры с использованием технологии дипфейк без согласия человека, а также создавать поддельные видео с участием кандидатов на государственные посты в преддверии выборов.
В ЕС и Великобритании также принят ряд законодательных актов, ограничивающих применение нейросетей.
Как защитить себя от недобросовестного использования ИИ
Если у вас возникли сомнения в подлинности аудио- или видеосообщения, которое вам отправили, то лучше все перепроверить несколько раз.
Важно провести беседу на тему безопасности в цифровой среде с неопытными пользователями сети, к примеру, с родственниками пожилого возраста и детьми. Можно также договориться с ними о кодовом слове или вопросе, которые будете знать только вы и ваши близкие. Также при видеобеседе с предполагаемым мошенником, попросите человека потрясти головой, в этом случае маска слетит. Если же он категорически отказывается это делать, то лучше прекратить разговор.
Также чтобы оградить себя от фейков в сети, важно проверять данные в авторитетных источниках.
Топ приложений для создания дипфейков в домашних условиях
Рынок приложений, в которых вы сможете с помощью ИИ создавать различного рода фотографии и видео с дипфейками невероятно широк. Большинство из них имеет бесплатный демонстрационный период, а далее необходимо оплатить подписку.
FaceApp
FaceApp является одним из наиболее известных сервисов для генерации дипфейков. Оно набрало почти 500 000 оценок в App Store. Есть версия и для Андроид.
Оно знаменито тем, что лицо можно трансформировать различными способами. Например, ИИ способен вас состарить, сделать фотомоделью, изменить пол, цвет волос, глаз прическу, надеть очки, добавить улыбку или усы. В нем также имеется возможность избавиться от проблем с кожей за счет применения фильтра Hollywood.
FaceApp доступны и бесплатно, но самые полезные маски и возможности открываются после приобретения платной версии.
Zao
Эта китайская разработка взорвала сеть в 2019 году. Сервис заняла топ-3 в Apple Store в КНР. Его функционал заключается в том, что человек заменить лицо героя известного фильма или сериал на свое и почувствовать себя знаменитостью или просто развлечься, создавая забавный видео-контент. Однако у разработчиков случились проблемы, связанные с политикой конфиденциальности. На данный момент Zao нельзя скачать в РФ.
FaceSwapLite
FaceSwapLite тестируется в бесплатном режиме. Суть технологии заключается в том, что лица на изображении меняются местами. Благодаря этому можно записать забавный ролик или сделать фото. Эту программу для дипфейков особенно полюбили владельцы домашних животных, которые записывали ролики вместе со своими любимцами. Также в функционале FaceSwapLite небольшой набор масок, например, Санта Клауса или викинга.
Несмотря на то, что FaceSwapLite упрекают в простоте и том, что контур схватывается неточно, тем не менее это хорошее развлечение на полчаса.
Avatarify
Суть Avatarify заключается в том, чтобы «оживить» фото и заставить его петь. Вы загружаете снимок, а нейросеть подстраивает мимику губ под выбранный трек. Так можно создавать любопытные ролики для соцсетей. Разработчики предлагают тематические подборки песен для дипфейка. Например, новогодние, детские, из знаменитых фильмов и так далее.
Avatarify предлагает freeware пробный период в три дня, а потом за его применение нужно заплатить. Avatarify доступ для установки на Айфон и Андроид-девайсы.
DeepFaceLab
В DeepFaceLab генерирует дипфейк с помощью более тонкого инструментария. Новичкам сложно с ним работать, и оно коммерческое, но в нем можно добиться впечатляющих и весьма реалистичных результатов. Разработчики, конечно, предусмотрели бесплатную версию. Но в ней доступна только функция замены местами головы на двух кадрах, добавление текста и стикеров, набор которых весьма ограничен.
В платной версии DeepFaceLab можно не только изменить черты, но и сделать себя моложе. Движения губ сервис синхронизирует с речью, что создает реалистичный эффект.
Программа с ограниченным набором функций есть в App Store, более полная версия на GitHub. Для работы с ней есть гайды на английском языке, а также видеообзоры.
Morph
Morph создает короткие ролики из загруженных вами снимков. К примеру, чтобы показать стадии взросления человека или возрастных изменений за время жизни.
При этом необязательно брать снимки одной персоны. Например, легко превратить Дэниела Рэдклиффа в Анджелину Джоли. Есть опция наложения музыки из библиотеки мелодий.
Приложение недоступно для Android, у него пробная версия и платная.
ToonMe
В этом приложении для дипфейков доступен пробный период в три дня, а далее для пользования нужно оформлять платную подписку. ToonMe доступно для Андроидов и iPhone. А название образовано от английского слова cartoon – «мультик». Это объясняет основные возможности данного ИИ-сервиса.
При загрузке исходного изображения оно превращается в мультяшный образ. Картинку, полученную в результате таких манипуляций, можно сделать гифкой. В галерее есть дополнительные эффекты.
Reface
Эта разработка – аналог Zao, здесь каждый способен побывать в шкуре знаменитости. Схема работы приложения проста: загружаете свое селфи и нейросеть переносит вас на палубу «Титаника», вы становитесь героем боевика или ходите лунной походкой вместо Майкла Джексона.
Маски для дипфейков, которые доступны в Reface, смотрятся максимально естественно. Они не слетают и не добавляют неприятных шумов. Минус сервиса: большое количество рекламы. Избавиться от нее можно, если купить премиум-версию. В платном пакете предусмотрена высокая скорость загрузки и более четкое изображение.
Есть версии как для Андроид, так и для iOs.
Законно ли использовать deepfake.
Поскольку эти возможности искусственного интеллекта использовались не только в целях развлечения, но и для мошеннических схем и шантажа, встал вопрос об их законности.
К тому же открытой остается тема защиты от репутационных рисков. Но поскольку технология дипфейк новая, то и законодательство, которое бы регулировало эту сферу, еще не сформировано.
Некоторые страны стремятся к тому, чтобы урегулировать использование нейросетей.
Но законотворческая деятельность пока не успевает за развитием ИИ.
Так, в штате Калифорния (США) приняты два ограничительных закона, связанных применением этого инструмента. Согласно закону, нельзя создавать откровенные кадры без согласия человека, а также генерировать дипфейковые ролики с участием кандидатов на госпосты в преддверии выборов.
В ЕС и Великобритании на фоне обеспокоенности ростом влияния информационных технологий принят ряд законодательных актов. В России эту область регулирует закон о клевете, который предусматривает наказание вплоть до лишения свободы.
Несмотря на то, что в законе нет слова «deepfake», наказание можно понести за нанесение урона деловой репутации.
Согласно статье 152.1 ГК РФ, нельзя использовать изображение гражданина без его согласия, а в случае его смерти согласие дают только его родственники.
Кроме того, даже если сам гражданин размещает фото или видео с собой в сети, это не дает другим права свободно брать подобные материалы без получения согласия.
Поэтому при использовании фото гражданина для создания дипфейков нарушается его право на охрану такого изображения, что влечет для нарушителя юридическую ответственность
Большую опасность представляют голосовые подделки, которые часто создают мошенники, поскольку нигде в мире не распространено право собственности на голос.
Некоторые эксперты предполагают, что в ближайшем будущем обывателям будет все труднее отличать реальные образы от поддельных. Пока непонятно, как жертв недобросовестного использования технологий ИИ защитит закон, но ясно, что уже сейчас усложняются алгоритмы для распознавания видео, сделанных с помощью дипфейка. Важно помнить и о цифровой безопасности и с осторожностью относится к голосовой почте и видеозвонкам. Если у вас возникнуть подозрения в подлинности ролика, то лучше все перепроверить еще раз.
Также важно провести беседу на тему цифровой безопасности с неопытными пользователями, к примеру, с пожилыми родственниками. Всегда важно проверять информацию, даже если она идет от известного «ньюсмейкера».
♛ Вирус предательства☆☆☆Правда о мировом кризисе ♛
Что такое фактчекинг и дипфейк.
Фактчекинг своими руками:
что это, и как проверить информацию в сети.
ФЕЙКИ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ И IT
ФЕЙКИ ОБ ОБЩЕСТВЕ
Фактчекинг, фактчекер, фактодиды – эти термины когда-то были элементами профессионального сленга журналистов, а теперь перекочевали в лексикон многих пользователей интернета. Относятся они к области проверки информации – умению распознавать ложные сведения или новости. В условиях, когда фейки наводнили медиа-пространство и стали грозным оружием в руках недобросовестных авторов, исследование источников новостей становится необходимым критерием не только для сотрудников СМИ, но и для рядовых читателей.
Что такое фактчекинг и зачем он нужен
Фактчекинг – это необходимое условие работы в любой редакции, заинтересованной в доверии своих источников информации и аудитории, термин пришел в русский из английского языка и дословно переводится, как «проверка фактов». Собственно, в этом и есть вся его суть. Ранее понятие было привычно в основном журналистам и экспертам, которые по долгу службы должны выпускать в своих материалах информацию на основе принципов объективности, достоверности и беспристрастности.
С развитием социальных сетей и других коммуникационных каналов, потребность в проверке информации возникла не только в статьях СМИ, но и читателей материалов new media – авторских площадок в сети. Она продиктована естественным стремлением оградить себя от лживой информации, которая может нанести вред.
Еще одна причина, которая делает фактчекинг популярным, – юридическая ответственность за публикацию и распространение фейков. В нашей стране, как и в других, она также предусмотрена и предполагает наказание вплоть до 15 лет лишения свободы.
Обзор общественно значимых источников
Проверка фактов в новостных статьях, утверждениях политиков, общественных деятелей и других важных фигур для выявления неточностей или предвзятости.
Проверка медиаматериалов
Анализ изображений с целью определения их подлинности, контекста и источника информации, исследование видеоматериалов на предмет монтажа и манипуляции, искажающих их восприятие.
Корректность цитат
Подтверждение правильности цитат и их контекста помогает избежать неправильного толкования, а также приписывания тех или иных фраз тому, кто их никогда не говорил.
Анализ данных
Проверка статистических данных и графиков на достоверность, определение источников и методологии сбора информации.
Анализ заявлений на соответствие документам и законам
Не противоречат ли сообщения, распространяемые в сети, документам и законам.
Подтверждений событий и происшествий
Анализ новостей, связанных с различными событиями и происшествиями — помимо поиска по открытым источникам в сети, фактчекинг может включать работу на месте событий и общение с очевидцами.
Исследование социальных сетей
Мониторинг информации, распространяемой через публикации или репосты.
Факты и фактоиды
Мы живем в эпоху пост правды. Информация, озвученная в эфире телеканала, пресс-релизе, статье или в популярном телеграм-канале, начинает жить своей жизнью, попадая в нужную целевую аудиторию. Факт становится не таким уж и важным, проигрывая более увлекательному фактоиду.
Что такое фактоид? Это противоположность факта. Фактоид – это искаженная информация, опубликованная в медиа и получившая распространение среди аудитории. Озвученный где-либо фактоид часто становится источником целой череды фейков и домыслов. Попадаются на эту удочку не только обычные люди, но иногда даже авторитетные издания.
Иногда, фейки – это следствие того, что принято называть «человеческий фактор». Особенно актуально это для соцсетей. Люди не проводят фактчекинг, а публикуют новость или слух на основании эмоций, захватывающего контента, а затем его подхватывают другие пользователи и начинают множить дезинформацию.
Совсем другое дело, когда речь идет о целенаправленной публикации фейков. Есть авторы, которые используют такие статьи как инструмент. Речь идет о недобросовестных средствах массовой информации или других информационных площадках, мошенниках и более глобальных структурах. Если говорить о журналистах и блогерах, то они, как правило, гонятся за хайпом, чтобы повысить читаемость своих ресурсов.
Мошенники создают фейки для извлечения финансовой или другой выгоды. При фактчекинге информации самые сложные фейки – материалы подготовленные профессионалами. Из таких «специалистов» нередко формируют целые подразделения, которые работают на то, чтобы одурачить общество, посеять панику, добиться дестабилизации обстановки. Именно по такому принципу работают украинские Центры психологических операций на Украине – ЦИПсО.
Яркий экземпляр подобного псиопа (психологическая операция) – искусственно раздутая шумиха вокруг «ЧВК Редан», новость о которой прокатилась в информационных агентствах и пабликах в начале года. Речь в статьях шла о том, что представителей молодежной субкультуры стравливали с другими молодыми людьми, чтобы вызвать беспорядки в российских городах. Разоблачителям фейков удалось выяснить, что ниточки этих волнений ведут на Украину.
Так фактчекинг помог выявить зарубежную психологическую операцию и предотвратить волнения.
Информационная гигиена – необходимый навык современного человека. Без него трудно представить безопасность в виртуальной и невиртуальной реальности. Большинство из граждан понимают, что не стоит доверять подозрительным статьям, переходить по случайным ссылкам в интернете, вводить свои личные и финансовые данные на сторонних ресурсах. Поэтому, проводить фактчекинг – это уже не обязанность экспертов, но будничная рутина для большинства из нас, обойтись без которой невозможно.
Кто такой фактчекер
Тот, кто занимается проверкой фактов, может считать себя фактчекером. Если раньше этот спектр работы являлся в основном спецификой журналистики, то сегодня фактчекерами себя смело могут считать блоггеры, авторы различных ресурсов в сети и просто читатели.
Инструменты фактчекера
Главный инструмент фактчекера – критическое мышление. При анализе информации важно уметь не поддаваться эмоциям, которые иногда носят массовый характер. Иногда именно этот аспект становится самым трудным в работе.
Что касается «технических» возможностей фактчекинга, то к ним можно отнести:
Поисковые системы – Яндекс, Google и другие
Различные инструменты поиска изображений. В том числе, в поисковиках Яндекс, Google
Социальные сети
Различные базы данных: Госзакупки, СПАРК, ЕГРЮЛ и другие.
Сервисы статистики – ВЦИОМ, Росстат и другие
Ресурсы подтверждения подлинности доменов: SimilarWeb и другие
Ресурсы поиска подлинников видео контента: Deepware и другие
Официальные источники информации: страницы административных организаций, общественных и политических фигур, чья цитата будет иметь вес
Инструменты фактчекера всегда зависят от того, что необходимо проверить. Именно задача диктует выбор для качественного анализа. Поэтому подходить к этому вопросу стоит гибко, руководствуясь главным правилом – всегда уметь поставить под сомнение информацию в том случае, если есть риск того, что перед вами фейк.
Как самому выполнить фактчекинг
Первое правило – оно же инструмент – сомнение. У дезинформации в сети обычно есть характерные признаки. Это апелляция к эмоциям. Чем больше в подозрительной информации отсылок к игре на нервах читателя – тем вероятнее всего, что вы наткнулись на фейк. Кликбейтные заголовки, эпатажные заявления, категоричные обвинения, недосказанность, намеки на провокационный подтекст, отсутствие релевантных подтверждений в виде фото и видео, сомнительные ресурсы – все это признаки фейка.
Стартовая задача фактчекинга, с которой стоит начинать анализ – найти первоисточник. Идеально – авторский контент и того, кто заявил о том, что вызвало ваше сомнение. Или портал, который первый сообщил о чем-либо.
Первоисточниками информации могут быть и различные технические устройства. Например, видеорегистраторы и т.п.
Второе правило – верификация полученных данных. Всегда пытайтесь подтвердить новость или пресс-релиз с помощью двух-трех ссылок на источники. Желательно, если они не будут связаны между собой. Именно поэтому важно узнавать мнение разных сторон, которые связаны с вашей ситуацией. Это позволит избежать пристрастной позиции, которую нередко пытается транслировать один из ваших спикеров.
Третье правило фактчекинга – заручитесь экспертизой. Это может мнение экспертов по теме, научное исследование или ваша собственная проверка с помощью инструментов – баз данных и сетевых ресурсов. Если у вас нет собственной базы экспертов, то поможет сторонняя площадка, где авторы размещают свои вопросы и ищут спикеров по теме. Таким, например, является Pressfeed.
Четвертое правило – используйте соцсети. В них можно раздобыть ценные сопутствующие сведения: видео и фото очевидцев с места происшествий, узнать комментарии людей по резонансной теме. Но при анализе информации необходимо сохранять холодный рассудок и не поддаваться возможной панике.
Пятое правило – узнайте мнение официальных источников. Каким бы скучным ни казалась эта рекомендация, не поленитесь зайти на сайт ведомств или страницы уполномоченных лиц и узнать официальные публикации по вашей теме.
Придерживайтесь устоявшегося алгоритма анализа материалов:
Находите первоисточники статьи.
Обращайте внимание на точность подачи информации: беспристрастность, верное указание имен, названий организаций, должностей, грамотность изложения. Например, документы-фейки часто грешат ошибками в виде неверных должностей и имен подписантов, названий организаций и других ляпов, которые легко проверить на порталах организаций.
Определяйте дату и место. Часто не соответствие поможет вычислить фейк
Анализируйте фото и видео. Проводя фактчекинг, найдите первоначальный источник изображения. Очень часто для создания фейков используют архивные материалы из сетей. Проанализируйте фото на элементы фотошопа.
Всегда ищите полные высказывания спикеров. Вырванная из контекста материала цитата – прекрасный инструмент для «утки» в СМИ и соцсетях
Примеры проведения фактчекинга
В истории журналистики много громких примеров фактчекинга информации. Но мы не будем углубляться в историю, а покажем, как недавно с помощью фейкового контента упомянутые украинские Центры психологических операций попытались дестабилизировать ситуацию в Дагестане на фоне конфликта на Ближнем Востоке.
Итак, в конце октября в украинских телеграм-каналах появились новости о том, что за событиями в аэропорту Махачкалы, где несколько десятков человек устроили беспорядки, стоит ФСБ России. В качестве подтверждения к статьям и постам был прикреплен документ, который должен был убедить читателя в этом.
Но результаты фактчекинга выдали подделку документа с головой.
Во-первых, герб Национального антитеррористического комитета РФ, который указан на бланке, выглядит по-другому. Эту информацию можно проверить на портале организации. Во-вторых, авторы фейка оформили документ с нарушением требований документооборота. Например, в документе видны разные шрифты и неправильное выравнивание текста. В дате над номером – цифры разной величины.
Те, кто придумал фейк, явно торопились, так как некоторые слова в предложениях рассогласованны. Нарушена стилистика делового изложения, которое не допускает использование таких слов, как «замысел». Также в документах четко должно быть прописано, кто такие «ответственные сотрудники» в конкретном случае.
Очень грубая ошибка – добавление при помощи графического редактора печати другого ведомства. Еще один ляп – подписант указан без отчества, что также указывает на фейковость документа.
Что потребовалось для того, чтобы разоблачить этот фейк?
Прежде всего, абсурдность заявления и темы статьи, а затем – внимание к оформлению бумаги. Стилистические нарушения бросаются в глаза сразу.
Затем видны оформительские помарки.
И уже на третьем этапе становятся очевидны грубые ошибки – герб, печать, подпись в материалах. Проводя фактчекинг, найти образцы этих элементов можно в открытых источниках информации, в том числе, на официальных ресурсах ведомств.
технология, зашедшая слишком далеко.
ФЕЙКИ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ И IT
ДИПФЕЙК
НОВОСТИ О МОШЕННИЧЕСТВЕ
СОЦИАЛЬНАЯ СФЕРА
ИИ
Технология дипфейка за последнее время сделала гигантский шаг вперед.
Если изначально она была просто развлекательным инструментом, то теперь ее используют не только во благо.
Все больше упоминаний дипфейк получает в свете криминальных и скандальных историй, а также производства дезинформации и черного пиара в политике.
Что понимают под термином «дипфейк»?
Значение слова «дипфейк» восходит к английским deep learning — «глубокое обучение» и fake — «подделка».
Часто, когда говорят об этой технологии, то подразумевают, что дипфейк — это когда настоящее лицо человека на видео или фото заменяют другим с помощью искусственного интеллекта (ИИ, или английское AI).
это и подделка голосовых записей,
и создание искусственного персонажа с нуля.
а песню группы «Земляне» исполняет Илон Маск.
Изначально этот инструмент был исключительно на службе искусства. Дипфейки применяли в кино. К примеру, для создания образа Голума из фильма «Властелин колец». Также можно вспомнить историю производства «Аватара», где применялась технология facial motion retargeting. Этот инструмент переносил мимику актеров на трехмерных персонажей.
Для создания подобного контента нужны образцы голоса, а также фото или видео. У знаменитостей, хотят они этого или нет, в силу своей профессиональной деятельности большое количество подобных исходников. И даже если человек не является медийным, то изображения с ним можно найти в его соцсетях, а голосовые сообщения — в мессенджерах.
Позитивное использование технологии.
Дипфейки активно используют в кино, маркетинге, журналистике, арт-проектах и сфере образования. К примеру, компания «Мегафон» сняла рекламу с голливудским актером Брюсом Уиллисом, а точнее, применив дипфейк звезды. Технология помогла снять ролик быстрее и дешевле.
Огромное количество примеров использования дипфейков в развлекательных целях. Так, в 2020 году в сети стал популярным ролик, где владелец компании Space X Илон Маск, а точнее его «двойник», пел советский хит «Трава у дома» группы «Земляне». Ролик обрел популярность в связи с тем, что песня связана с космической отраслью, как и деятельность Маска.
Добавим, что персона бизнесмена и создателя соцсети X (бывш. Twitter) была популярна и в контексте современной журналистики. На форуме «Диалог о фейках», который прошел 22 ноября 2023 года в Москве, любой человек мог в режиме реального времени «примерить» лицо предпринимателя при помощи специальной программы. При этом за несколько дней до форума в сети появился ролик, сделанный искусственным интеллектом, в котором двойник Маска приглашал сам себя на форум.
Большие перспективы эксперты видят в вопросе использования дипфейка в сфере образования. Директор по науке и технологиям Агентства искусственного интеллекта Роман Душкин отметил, что с помощью технологии дипфейк можно расширить возможности чтения лекций для студентов.
Отметим, что тренд современного образования все больше смешается в сторону видеоформата. Ролики предпочитают больше, чем статьи, инфографику, презентации и книги. Дипфейки, основанные на технологии deep learning (глубокое обучение), в этой связи помогают быстро создать видеокурс.
Так, можно снять материал с преподавателем один раз, а потом нейронная сеть может менять язык, национальность и даже пол наставника. Подобные программы актуальны для корпоративного обучения, когда важно учить сотрудников по одним стандартам.
Темная сторона deepfake
Обучение искусственного интеллекта и расширение его сферы влияния происходит быстро. Дипфейки применяют не только для развлечения и создания полезного контента, технологию полюбили криминальные элементы. К примеру, известного человека могут шантажировать откровенными видеороликами, где используется его лицо. Начало постинга такого контента пришлось на 2017 год. Впоследствии Reddit, Twitter и Pornhub стали блокировать их в случае выявления.
Одним из последних громких случаев стал скандал с американской певицей Тейлор Свифт. 25 января 2024 года в соцсети X (ранее Twitter) были опубликованы изображения эротического характера, сгенерированные ИИ, где главной фигурой стал образ исполнительницы. Один из постов собрал более 45 млн просмотров, прежде чем аккаунт заблокировали. Платформа заявила об абсолютной нетерпимости к подобному контенту. Но тенденция остается «тревожной», как заметил СЕО Microsoft Сатья Наделла.
Технологию голосовых дипфейков мошенники активно используют и в России. Аудио имитируют при помощи специальных программ. Как правило, все образцы голоса и сведения мошенники берут из соцсетей, а готовую подделку с требованием переслать деньги рассылают неопытным пользователям сети, к примеру, пожилым родственникам.
Дипфейки стали использовать и в информационных войнах, для создания различного рода подделок, очерняющих политического оппонента, либо влияющих на настроения масс. Сейчас можно смело утверждать, что дипфейки становятся товаром на политическом рынке.
Создавая поддельные видео или изображения политических лидеров, злоумышленники могут подорвать доверие общества к институту демократии и вызвать политическую нестабильность. В крайних случаях дипфейки могут применяться для нагнетания хаоса и создания раскола в обществе.
Но зачастую подделки рассчитаны на эффект внезапности и неопытных пользователей. К примеру, летом прошлого года в ряде регионов РФ на радио и телевидении прозвучало фейковое обращение российского президента Владимира Путина, в котором сообщалось о введении военного положения и всеобщей мобилизации. Ролик разметили в результате взлома сетки вещания. Все тезисы оказались ложными. Целью вброса было посеять панику среди населения.
Большинство дипфейковых роликов можно без труда определить визуально: картинка кажется нечеткой и смазанной, есть мелькания, плохо проработаны глаза и зубы. Изображение на видео «скачет», голос кажется роботизированным и используются неестественные интонации. Машинное обучение заметно и остается местами очень грубым.
Но с развитием технологий подделки стали настолько искусными, что для их верификации нужны специальные программы. К примеру, FakeCatcher от Intel или DeepFake-Detection-SDK. Но и они не всегда показывают достоверные результаты. Так, DeepFake-Detection-SDK определил только с 12 из 20 дипфейков, созданных для анализа. У FakeCatcher показатель выше:
19 из 20.
На российском рынке хорошо зарекомендовала себя система под названием «Зефир». Данное программное обеспечение является разработкой АНО «Диалог Регионы». Оно глубоко исследует данные, идентифицирует поддельный аудиовизуальный контент и выдает процентную вероятность фейка. Благодаря этим алгоритмам уже были распознаны несколько дипфейковых видео с российским лидером.
К примеру, на прямой линии
14 декабря 2023 года президент РФ Владимир Путин получил вопрос от «самого себя». Российский студент использовал технологию дипфейка, что узнать у главы государства о наличии у него двойников и его отношении к возможностям искусственного интеллекта. «Зефир» определил ролик как фейк с вероятностью в 78%. Высокое качество подделки было связано с тем, что студент взял для образца реальное видео с выступления российского лидера.
Поскольку эта цифровая технология очень быстро распространилась не только в кино, но и криминальной среде, встал вопрос о законности ее использования. Из-за того, что это явление новое, законодательство еще не сформировано в полной мере. В российском законодательстве пока нет понятия дипфейк и законов с этим термином. Но есть смежные законы.
Так, согласно статье 152.1 ГК РФ, нельзя использовать изображение гражданина без его на то согласия. Если человек умер, то согласие должны предоставить его родственники. Даже если человек размещает фото или видеоконтент с собой в сети, то это не дает другим людям право использовать эти материалы без согласия.
То есть если при производстве дипфейка использовалось фото гражданина без его согласия, то таким образом нарушается право на охрану такого изображения, что может закончится юридической ответственностью.
Также у человека есть право на защиту чести, достоинства и деловой репутации. Если созданный дипфейк нанес урон деловой репутации и дискредитировал гражданина, то ответственность для нарушителя неминуема. Здесь же можно применить статью 128.1. УК РФ о клевете.
Большую опасность представляют набирающие популярность голосовые подделки, которые часто создают аферисты. С одной стороны, нигде в мире не распространено право собственности на голос. Но с другой стороны, как пояснили в Минцифры РФ, голосовые данные человека являются биометрией и охраняются законом «О персональных данных». Таким образом, использование чужого голоса без согласия человека, которому он принадлежит, может повлечь административную ответственность, поскольку это незаконная обработка персональных данных.
Также в рамках правового поля остается нарушение авторских прав посредством использования дипфейка, а также ответственность предусмотрена за создание недобросовестной и вводящей в заблуждение рекламы. Если обман был за счет использования данной технологии, то это также карается законом. Сейчас в Госдуме рассматривается вопрос о принятии соответствующего закона о дипфейках.
А в штате Калифорния в США вступили в силу законы, запрещающие генерировать откровенные кадры с использованием технологии дипфейк без согласия человека, а также создавать поддельные видео с участием кандидатов на государственные посты в преддверии выборов.
В ЕС и Великобритании также принят ряд законодательных актов, ограничивающих применение нейросетей.
Как защитить себя от недобросовестного использования ИИ
Если у вас возникли сомнения в подлинности аудио- или видеосообщения, которое вам отправили, то лучше все перепроверить несколько раз.
Важно провести беседу на тему безопасности в цифровой среде с неопытными пользователями сети, к примеру, с родственниками пожилого возраста и детьми. Можно также договориться с ними о кодовом слове или вопросе, которые будете знать только вы и ваши близкие. Также при видеобеседе с предполагаемым мошенником, попросите человека потрясти головой, в этом случае маска слетит. Если же он категорически отказывается это делать, то лучше прекратить разговор.
Также чтобы оградить себя от фейков в сети, важно проверять данные в авторитетных источниках.
Топ приложений для создания дипфейков в домашних условиях
Рынок приложений, в которых вы сможете с помощью ИИ создавать различного рода фотографии и видео с дипфейками невероятно широк. Большинство из них имеет бесплатный демонстрационный период, а далее необходимо оплатить подписку.
FaceApp
Оно знаменито тем, что лицо можно трансформировать различными способами. Например, ИИ способен вас состарить, сделать фотомоделью, изменить пол, цвет волос, глаз прическу, надеть очки, добавить улыбку или усы. В нем также имеется возможность избавиться от проблем с кожей за счет применения фильтра Hollywood.
FaceApp доступны и бесплатно, но самые полезные маски и возможности открываются после приобретения платной версии.
Zao
FaceSwapLite
Несмотря на то, что FaceSwapLite упрекают в простоте и том, что контур схватывается неточно, тем не менее это хорошее развлечение на полчаса.
Avatarify
Avatarify предлагает freeware пробный период в три дня, а потом за его применение нужно заплатить. Avatarify доступ для установки на Айфон и Андроид-девайсы.
DeepFaceLab
В платной версии DeepFaceLab можно не только изменить черты, но и сделать себя моложе. Движения губ сервис синхронизирует с речью, что создает реалистичный эффект.
Программа с ограниченным набором функций есть в App Store, более полная версия на GitHub. Для работы с ней есть гайды на английском языке, а также видеообзоры.
Morph
При этом необязательно брать снимки одной персоны. Например, легко превратить Дэниела Рэдклиффа в Анджелину Джоли. Есть опция наложения музыки из библиотеки мелодий.
Приложение недоступно для Android, у него пробная версия и платная.
ToonMe
При загрузке исходного изображения оно превращается в мультяшный образ. Картинку, полученную в результате таких манипуляций, можно сделать гифкой. В галерее есть дополнительные эффекты.
Reface
Маски для дипфейков, которые доступны в Reface, смотрятся максимально естественно. Они не слетают и не добавляют неприятных шумов. Минус сервиса: большое количество рекламы. Избавиться от нее можно, если купить премиум-версию. В платном пакете предусмотрена высокая скорость загрузки и более четкое изображение.
Есть версии как для Андроид, так и для iOs.
Законно ли использовать deepfake.
Поскольку эти возможности искусственного интеллекта использовались не только в целях развлечения, но и для мошеннических схем и шантажа, встал вопрос об их законности.
К тому же открытой остается тема защиты от репутационных рисков. Но поскольку технология дипфейк новая, то и законодательство, которое бы регулировало эту сферу, еще не сформировано.
Некоторые страны стремятся к тому, чтобы урегулировать использование нейросетей.
Но законотворческая деятельность пока не успевает за развитием ИИ.
Так, в штате Калифорния (США) приняты два ограничительных закона, связанных применением этого инструмента. Согласно закону, нельзя создавать откровенные кадры без согласия человека, а также генерировать дипфейковые ролики с участием кандидатов на госпосты в преддверии выборов.
В ЕС и Великобритании на фоне обеспокоенности ростом влияния информационных технологий принят ряд законодательных актов. В России эту область регулирует закон о клевете, который предусматривает наказание вплоть до лишения свободы.
Несмотря на то, что в законе нет слова «deepfake», наказание можно понести за нанесение урона деловой репутации.
Согласно статье 152.1 ГК РФ, нельзя использовать изображение гражданина без его согласия, а в случае его смерти согласие дают только его родственники.
Кроме того, даже если сам гражданин размещает фото или видео с собой в сети, это не дает другим права свободно брать подобные материалы без получения согласия.
Поэтому при использовании фото гражданина для создания дипфейков нарушается его право на охрану такого изображения, что влечет для нарушителя юридическую ответственность
Большую опасность представляют голосовые подделки, которые часто создают мошенники, поскольку нигде в мире не распространено право собственности на голос.
Некоторые эксперты предполагают, что в ближайшем будущем обывателям будет все труднее отличать реальные образы от поддельных. Пока непонятно, как жертв недобросовестного использования технологий ИИ защитит закон, но ясно, что уже сейчас усложняются алгоритмы для распознавания видео, сделанных с помощью дипфейка. Важно помнить и о цифровой безопасности и с осторожностью относится к голосовой почте и видеозвонкам. Если у вас возникнуть подозрения в подлинности ролика, то лучше все перепроверить еще раз.
Также важно провести беседу на тему цифровой безопасности с неопытными пользователями, к примеру, с пожилыми родственниками. Всегда важно проверять информацию, даже если она идет от известного «ньюсмейкера».