Діпфе́йк (англ. deepfake; конкатенація слів deep learning («глибоке навчання») та fake («підробка»)) — методика синтезу зображення людини, яка базується на штучному інтелекті. Використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики.
Діпфейк можна використати для створення фальшивих порнографічних відео із селебриті або для помсти. Діпфейкова порнографія з'явилася в Інтернеті 2017 року, зокрема на Reddit, і була заборонена сайтами, зокрема, Reddit, Twitter і Pornhub. Діпфейк використовують для створення підроблених новин і зловмисних обманів.
Непорнографічні діпфейк-ролики можна легко знайти на популярних вебсайтах потокового відео, таких як YouTube або Vimeo. Популярна програма для діпфейку FakeApp використовує TensorFlow.
Методи виявлення жестів та перетворення початкового відео на відео з особою, схожою на цільову особу, представлені 2016 року, дозволяють обчислення в режимі реального часу підробних мімічних виразів у наявному 2D-відео.
Порнографія ред.
Восени 2017 року анонімний користувач Reddit під псевдонімом «Deepfakes» опублікував в інтернеті кілька порнографічних відео. Першим, яке привернуло увагу, було діпфейкове відео з Дейзі Рідлі. Це один з найвідоміших діпфейкових фільмів, обговорюваний у низці статей. Інші — це симуляція сексу з акторками Галь Гадот, Еммою Вотсон, Кеті Перрі, Тейлор Свіфт або Скарлетт Йоганссон. Сцени не були реальними, а створені штучним інтелектом, про що й було невдовзі повідомлено. З часом спільнота Reddit виправила безліч помилок у фальшивих відео, тому все важче відрізнити підробку від справжнього матеріалу. Як дані тренувань для програмного забезпечення, користувачі Reddit використовували записи зі сексуальних фільмів та відповідної акторки. Про феномен діпфейку вперше повідомлено в грудні 2017 року в науково-технічному розділі журналу Vice, що спричинило багато повідомлень в інших ЗМІ.
У Великій Британії виробників діпфейків можуть притягти до відповідальності за переслідування, але існують заклики оголосити діпфейки окремим злочином.
Політика ред.
Діпфейки використовували для підміни відомих політиків на відеопорталах або чат-кімнатах. Наприклад, обличчя президента Аргентини Маурісіо Макрі замінили обличчям Адольфа Гітлера, а обличчя Ангели Меркель — Дональда Трампа. У квітні 2018 року Джордан Піл (Jordan Peele) та Йона Перетті (Jonah Peretti) створили діпфейк із зображенням Барака Обами як публічне попередження про небезпеку діпфейків.
Центр протидії дезінформації заявив у лютому 2022 року про те, що технологія діпфейку може бути використана в інформаційно-психологічній операції в ході російського вторгнення в Україну для створення несправжнього відео з заявою про капітуляцю Володимира Зеленського.
24 червня 2022 року мер Берліна Франциска Ґіффай протягом 15 хвилин спілкувалася у відеорежимі з чоловіком, який назвався міським головою Києва Віталієм Кличком. За словами прессекретаря, спочатку бесіда не викликала жодних підозр, попри те, що співрозмовник розмовляв російською (насправді Віталій Кличко добре володіє німецькою).
Програми ред.
У січні 2018 року випущено настільну програму FakeApp. Застосунок дозволяє користувачам легко створювати та обмінюватися відео зі зміненим обличчям. Застосунок використовує для створення фальшивого відео штучну нейронну мережу, обчислювальну потужність графічного процесора та 3-4 ГБ пам'яті. Для отримання детальної інформації програмі потрібно багато візуальних матеріалів з зображеннями людини, обличчя якої потрібно вставити, щоб, використовуючи алгоритм глибокого навчання на основі відеопослідовностей та зображень, дізнатись, які аспекти зображення слід замінити. Застосунок використовує програмний каркас для штучного інтелекту TensorFlow від Google, який, серед іншого, вже використовувався для програми DeepDream. Основними цілями подібних фальшивих секс-відео є знаменитості, але деякі звичайні люди також постраждали. У серпні 2018 року дослідники з Університету Каліфорнії, Берклі опублікували статтю, в якій представлено застосунок, який, використовуючи штучний інтелект, «змушує» на відео людину танцювати так, як це робить танцівник на іншому відео.
Критика ред.
Зловживання ред.
Aargauer Zeitung стверджує, що маніпуляція фотознімками та відео з використанням штучного інтелекту може стати небезпечним масовим явищем. Проте фальсифікація зображень та відео виникла задовго до програмного забезпечення для редагування відео та зображень; новиною в цьому випадку є реалістичність. Також можна діпфейки можна використати для цільових обманів, для помсти тощо.
Вплив на довіру та автентичність ред.
Інший ефект діпфейку полягає в тому, що більше не можна розпізнати, чи є матеріал підробним, чи справжнім. Дослідник штучного інтелекту Алекс Шампандар (Alex Champandard) сказав, що всі мають знати, які ризики несе ця технологія, і що проблема не є технічною, а, найпевніше, пов'язана з довірою до інформації та журналістики. Первинним є те, що людство може потрапити в епоху, коли буде неможливо визначити, чи відповідає істині те, що показують у ЗМІ.
Реакція в інтернеті ред.
Деякі вебсайти, такі як Твіттер і Gfycat[en], оголосили про видалення діпфейкового вмісту та блокування його видавців. Раніше платформа чатів Discord заблокувала канал чату з підробленими порновідео знаменитостей. Порнографічний вебсайт Pornhub також планує блокувати такий вміст, однак повідомляється, що сайт не виконував заборону. На Reddit ситуація спочатку залишалася незрозумілою, доки 7 лютого 2018 року відповідний субреддіт не був призупинений через порушення політики «недобровільної порнографії».
Шахрайство ред.
Діпфейк фішинг — це новий вид фішингових атак через засоби відео та аудіокомунікацій. Цей вид атак набув популярності під час коронавірусного локдауну.[джерело?]
Методи виявлення ред.
Діпфейкові відео можна виявити за відсутністю фізіологічних сигналів, притаманних людині: дихання, кліпання очима, пульсу. DARPA 2016 року розпочало проєкт MediFor (англ. Media Forensics, криміналістичний аналіз медіа), метою якого є розробка технологій для автоматичного оцінювання цілісності зображення чи відео та інтеграція їх у платформу для обміну криміналістичними матеріалами між кінцевими користувачами. У разі успіху, платформа MediFor автоматично виявлятиме маніпуляції, надаватиме детальну інформацію про те, як ці маніпуляції виконано, а також оцінюватиме загальну цілісність візуальних матеріалів, щоб полегшити рішення щодо використання будь-якого сумнівного зображення чи відео.
AI Foundation розробляє програмне забезпечення для перевірки справжності медіа. Дослідники запрошують користувачів надсилати їм матеріали, які є фейками для навчання штучного інтелекту.
Див. також ред.
Примітки ред.
- . Радіо Свобода (укр.). Архів оригіналу за 18 лютого 2022. Процитовано 18 лютого 2022.
- Brandon, John (16 лютого 2018). . Fox News (амер.). Архів оригіналу за 15 червня 2018. Процитовано 20 лютого 2018.
- . Highsnobiety (амер.). 20 лютого 2018. Архів оригіналу за 14 липня 2021. Процитовано 20 лютого 2018.
- Roettgers, Janko (21 лютого 2018). . Variety (амер.). Архів оригіналу за 10 червня 2019. Процитовано 28 лютого 2018.
- (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
- Kharpal, Arjun (8 лютого 2018). . CNBC. Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
- . PCMAG (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 20 лютого 2018.
- . The Outline (англ.). Архів оригіналу за 16 січня 2020. Процитовано 28 лютого 2018.
- Roose, Kevin (4 березня 2018). . The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 18 червня 2019. Процитовано 24 березня 2018.
- . Reason.com (англ.). 25 січня 2018. Архів оригіналу за 22 березня 2018. Процитовано 24 березня 2018.
- . The Verge. Архів оригіналу за 24 березня 2018. Процитовано 24 березня 2018.
- Thies, Justus (2016). . Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Архів оригіналу за 26 лютого 2018. Процитовано 24 лютого 2018.
- . Motherboard. 11 грудня 2017. Архів оригіналу за 5 травня 2019. Процитовано 12 листопада 2018.
- ↑ Markus Böhm (7 лютого 2018). . Spiegel Online. Архів оригіналу за 23 вересня 2019. Процитовано 12 листопада 2018.
- (англ.). The Guardian. Архів оригіналу за 21 червня 2018. Процитовано 12 листопада 2018.
- ↑ . az Aargauer Zeitung. 3 лютого 2018. Архів оригіналу за 13 квітня 2019. Процитовано 12 листопада 2018.
- Patrick Gensing. . Архів оригіналу за 11 жовтня 2018. Процитовано 12 листопада 2018.
- Romano, Aja (18 квітня 2018). . Vox. Архів оригіналу за 11 червня 2019. Процитовано 10 вересня 2018.
- . www.ukrinform.ua (укр.). Архів оригіналу за 2 березня 2022. Процитовано 2 березня 2022.
- Дивні запитання та розмова російською: мер Берліна поговорила з несправжнім Кличком. ТСН.ua (укр.). 25 червня 2022. Процитовано 25 червня 2022.
- Britta Bauchmüller. . Berliner-Kurier.de. Архів оригіналу за 28 серпня 2019. Процитовано 12 листопада 2018.
- Eike Kühl (26 січня 2018). . Die Zeit. ISSN 0044-2070. Архів оригіналу за 24 травня 2019. Процитовано 12 листопада 2018.
- heise online. . Архів оригіналу за 12 грудня 2019. Процитовано 12 листопада 2018.
- Farquhar, Peter (27 серпня 2018). . Business Insider Australia (англ.). Архів оригіналу за 10 квітня 2019. Процитовано 27 серпня 2018.
- . The Verge. Архів оригіналу за 17 травня 2019. Процитовано 27 серпня 2018.
- . Die Zeit. 26 січня 2018. ISSN 0044-2070. Архів оригіналу за 25 травня 2019. Процитовано 12 листопада 2018.
- . WILDE BEUGER SOLMECKE Rechtsanwälte. 2 лютого 2018. Архів оригіналу за 13 квітня 2019. Процитовано 12 листопада 2018.
- . Engadget (амер.). Архів оригіналу за 10 квітня 2019. Процитовано 21 квітня 2018.
- . BuzzFeed (англ.). Архів оригіналу за 20 червня 2018. Процитовано 21 квітня 2018.
- barbara.wimmer. . Архів оригіналу за 8 лютого 2018. Процитовано 12 листопада 2018.
- heise online. . Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018.
- . Архів оригіналу за 10 квітня 2019. Процитовано 12 листопада 2018.
- Stupp, Catherine (30 серпня 2019). Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. Wall Street Journal (амер.). ISSN 0099-9660. Процитовано 24 грудня 2022.
- Yuezun Li, Ming-Ching Chang and Siwei Lyu. . Архів оригіналу за 13 листопада 2018. Процитовано 12 листопада 2018.
- . Архів оригіналу за 29 жовтня 2020. Процитовано 12 листопада 2018.
- . www.aifoundation.com. Архів оригіналу за 12 січня 2019. Процитовано 12 січня 2019.
Посилання ред.
- «This new technology could send American politics into a tailspin»
- Технологія глибоких фейків: як глибоко брехня може інкорпоруватися в наше життя? [ 12 січня 2019 у Wayback Machine.]