Дипфейковая порнография, или просто поддельная порнография, представляет собой разновидность синтетического порно, которое создается с помощью изменения уже существующих порнографических материалов путём применения технологии deepfake к лицу актрисы или актёра. Дипфейковое порно вызывает множество нареканий, поскольку обычно лица знаменитостей женского пола помещаются на тела порноактрис, причем без согласия тех и других.
В 2017 году порнография с дипфейками наводнила Интернет, особенно платформу Reddit[1]. Первым роликом, привлёкшим ширококое внимание, стал дипфейк с Дейзи Ридли, о котором вышли несколько публикаций[1]. Другие известные порнографические дипфейки были сделаны с другими знаменитостями[1][2][3][4]. Согласно отчету, опубликованному в октябре 2019 года голландским стартапом Deeptrace, занимающимся кибербезопасностью, 96 % всех дипфейков в Интернете были порнографическими[5].
В декабре 2017 года Саманта Коул опубликовала статью о дипфейках в Vice. Статья вызвала широкий резонанс[6]. Шесть недель спустя Коул написала в последующей статье о значительном росте поддельной порнографии с помощью искусственного интеллекта[7]. С тех пор Саманта Коул из Vice опубликовала серию статей, посвящённых новостям, связанным с дипфейковой порнографией[8][9][10][11][4][12][6][7].
Несколько социальных сетей запретили или предприняли усилия по ограничению дипфейковой порнографии. В частности, сабреддит r/deepfakes на Reddit был запрещен 7 февраля 2018 года из-за нарушения политики «недобровольной порнографии»[13][14][15][16][17][18]. В том же месяце представители Twitter заявили, что приостановят действие учетных записей, подозреваемых в публикации дипфейкового контента без согласия исполнителей и владельцев образов[12].
Скарлетт Йоханссон, частый объект дипфейкового порно, публично рассказала об этом в The Washington Post в декабре 2018 года[19]. Она заявила, что, несмотря на опасения, она не будет пытаться удалить какие-либо из своих дипфейков, поскольку считает, что они не влияют на её общественный имидж и что различные законы в разных странах и характер интернет-культуры делают любые попытки удалить дипфейки «безнадёжным делом»[19]. В то время как такие знаменитости, как она, защищены своей славой, она считает, что дипфейки представляют серьезную угрозу для менее известных женщин, репутация которых может быть подорвана несогласованным изображением в дипфейковой порнографии или порномести[19].
DeepNude
В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, в котором использовались нейронные сети, в частности генеративно-состязательные сети, для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, первая стоила 50 долларов[20]. 27 июня создатели удалили приложение и вернули деньги потребителям, хотя различные копии приложения, как бесплатные, так и платные, продолжают хождение[21]. На GitHub версия этой программы с открытым исходным кодом под названием «open-deepnude» была удалена[22]. Версия с открытым исходным кодом имела то преимущество, что позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры[23].
Дипфейк CSAM
Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или создания CSAM с изображением детей, которые не подвергались реальному сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, домогательства, вымогательства и издевательства[24]. Кроме того, дипфейковая детская порнография создает дополнительные препятствия для полиции, усложняя уголовные расследования и идентификацию жертв.
Этические дебаты
Программное обеспечение для дипфейковой порнографии может быть использовано не по назначению для создания порномести против человека, что может быть расценено как форма домогательства[21].
В настоящее время кадры, созданные с помощью программного обеспечения, такого как DeepNude, все еще далеки от того, чтобы быть неотличимыми от реальных кадров при судебном анализе[23].
Усилия компаний по ограничению видеозаписи дипфейковой порнографии
31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки[25][26].
В феврале 2018 года Reddit забанил r/deepfakes за распространение несогласованной порнографии[18]. Другие веб-сайты также запретили использование дипфейков для принудительной порнографии, в том числе платформа социальных сетей Twitter и порносайт Pornhub[12]. Тем не менее, некоторые веб-сайты, в том числе 4chan и 8chan, не запретили дипфейк-контент[27].
Также в феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом без согласия», что нарушает их условия обслуживания[28]. Ранее они также заявляли Mashable, что удалят контент, помеченный как дипфейки[29]. В статье 2018 года авторы из Motherboard сообщили, что поиск «дипфейков» на Pornhub по-прежнему выдаёт несколько недавних видео с дипфейками[9].
Чат-сайт Discord в прошлом принимал меры против дипфейков[30] и занимал общую позицию в отношении дипфейков[26][31]. В сентябре 2018 года Google добавил «несогласованные синтетические порнографические изображения» в свой список запретов, что позволило любому запрашивать блок результатов, изображающих их поддельные обнаженные тела.[32]
↑Kirchengast, T (2020). "Deepfakes and image manipulation: criminalisation and control". Information & Communications Technology Law (англ.). 29 (3): 308–323. doi:10.1080/13600834.2020.1794615.