Кога некој ќе спомне „deepfake“, во главно прво ни текнува на изманипулирани видеа и фотографии од политичари, како славниот пример од Доналд Трамп нашминкан како кловн. Сепак, 96 проценти од таквите содржини всушност се порнографија, а жртва може да биде било кој чии фотографии авторот на видеата ќе ги најде.
До неодамна за изработка на реалистична „deepfake“ порнографија била потребна компјутерска стручност. Меѓутоа, новите широко достапни програми и алати ќе го променат тоа засекогаш. То аби можело да предизвика бран на вознемирување на жртви кои најчесто се жени, но всушност, може да биде било кој. За неколку години, никого не би требало да зачуди ако го види своето лице во експлицитна содржина. Може ли на тоа да се стави крај или барем да се воведат некои регулации.
Ако некој денеска сака со помош на вештачка интелигенција да направи лажно видео или фотографии, доволно му е да отиде на „Google“ или во „Apple Store“ и да симне една од „Face swap“ апликациите. Истражувачките лаборатории во Силициумската долина се натпреваруваат кој ќе произведе поуспешен модел за генерирање на слики, а своите кодови некои од нив ги направиле достапни за јавноста. Иако големите компании ставиле одредени рестрикции на креирање на видеа со помош на „AI“, секој што ќе го преземе нивниот код може да го менува и користи без ограничување.

Од 2019-та, 96 проценти од „deepfake“ содржините биле порнографија, според анализата на компанијата „DeepTrace Technologies“, а речиси сите прикажувале жени. Нивното присуство од тогаш пораснало, а во меѓувреме не е осмислена никаква правна регулација која би можела да ги заштити жртвите. Со други зборови, речиси е невозможно да се спречи настанувањето на ваква содржина во аглите на интернетот, а прашање е какво воопшто може да се казнат извршителите.
Еден од најголемите проблеми е тоа што и покрај се поголемата раширеност на „deepfake“, за него поголем дел од популацијата не ни знае. Тоа го отсликува примерот со американската наставничка која ја загубила својата работа откако родителите на нејзин ученик откриле нејзина „deepfake“ порно снимка. Залудно било што објаснувала за што станува збор, не и поверувале.

Најпознат и можеби најстрашен случај на користење на вештачката интелигенција со цел уцена, заплашување и манипулација е тој на истражувачката новинарка Рана Ајуб.
Групното силување на 8-годишно девојче од Кашмир го згрозило светот, а Националистичката партија „Bhartiya Janata“ им пружила поддршка на обвинетите, за што Ајуб зборувала на „BBC“ и на други светски медиуми.

За да ѝ се одмаздат, луѓе блиски до власта почнале да отвораат нејзини лажни профили на Твитер и да пишуваат дека ја мрази Индија и Индијците, како и дека поддржува силување. Тоа не ја спречило да продолжи. Се кулминирало кога еден ден добила видео кое прикажува жена со нејзиното лице во сексуален чин.
„Почнав да повраќам. Едноставно не знаев што да правам. Знаев декаова е голема работа во земја како Индија. Не знаев како да реагирам, само почнав да плачам“, напишала Ајуб во својата исповед за „Washington Post“.

Видеото било отворен повик за линч, дозвола дека секој може да се однесува кон неа како што сака. Дел од луѓето не и верувале дека тоа не е таа, дел ширеле нов бран на мизогини информации. Намерното понижување и малтретирање, како и инсинуацијата за нејзиниот промискуитет и сексуални односи со разни јавни личност, продолжиле со месеци.
Откако се случил овој страшен настан, некои земји вовеле забрана за создавање на „deepfake“ порнографија, но исто како и лажните вести, тешко е, но не и невозможно да се контролираат. Но затоа е клучно да се информирате колку е лесно да се произведе таква содржина, колку реално изгледа и колку е тешко да се забрани нејзино споделување. Во тој случај жртвата би можела само да одмавне со рака и да продолжи со својот живот.
