Deep Fake – най-добрите образци в „индустрията на измамата“

Deep fake е вид изкуствен интелект, използван за създаване на убедителни изображения, аудио и видео измамници. Терминът, който описва както технологията, така и произтичащото от това фалшиво съдържание, е претенция на дълбоко обучение и фалшификация.

Deepfakes са синтетични медии, при които човек в съществуващо изображение или видео е заменен с нечие друго подобие. Въпреки че актът на фалшифициране на съдържание не е нов, дълбоките фалшификати използват мощни техники от машинно обучение и изкуствен интелект, за да манипулират или генерират визуално и аудио съдържание с висок потенциал за измама.

Основните методи за машинно обучение, използвани за създаване на дълбоки фалшификати, се основават на дълбоко обучение и включват обучение на генеративни архитектури на невронни мрежи, като автоенкодери или генеративни съревнователни мрежи (GAN). Deepfakes привлече широко внимание за използването им при създаване на материали за сексуално насилие над деца, порнографски видеоклипове на знаменитости, порно за отмъщение, фалшиви новини, измами, тормоз и финансови измами. Това предизвика реакции както от индустрията, така и от правителството за откриване и ограничаване на употребата им.

https://www.aspi.org.au/report/weaponised-deep-fakes

Социална медия

Deepfakes започнаха да се използват в популярни платформи за социални медии, по-специално чрез Zao, китайско приложение за дълбоко фалшифициране, което позволява на потребителите да заменят собствените си лица с тези на герои в сцени от филми и телевизионни предавания като Ромео + Жулиета и Игра на тронове. Първоначално приложението беше подложено на контрол върху своите инвазивни потребителски данни и политика за поверителност, след което компанията публикува изявление, в което твърди, че ще преразгледа политиката. През януари 2020 г. Facebook обяви, че въвежда нови мерки за противодействие на това на своите платформи.

Изследователската служба на Конгреса цитира неуточнени доказателства, показващи, че оперативните служители на чуждестранното разузнаване са използвали дълбоки фалшификати, за да създават акаунти в социалните медии с цел набиране на лица с достъп до класифицирана информация.

Примерни събития:

– Deepfake на Доналд Тръмп беше лесно създаден въз основа на скеч Джими Фалън, изпълнен в The Tonight Show на NBC.

– Американският актьор Джордан Пийл, BuzzFeed и Monkeypaw Productions създадоха и продуцираха deepfake на Барак Обама.

– Deepfake на руския президент Владимир Путин също са създадени от безпартийна застъпническа група RepresentUs.

Сега ще видите едно видео за deepfakes, как чрез примери от вече направени видеа обясняват за правенето на deepfakes.

Интернет реакция

От 2017 г. Саманта Коул от Vice публикува поредица от статии, обхващащи новини около фалшивата порнография. На 31 януари 2018 г. Gfycat започна да премахва всички дълбоки фалшификати от сайта си. В Reddit субредитът r/deepfakes беше забранен на 7 февруари 2018 г. поради нарушение на политиката за „неволна порнография“. През същия месец представители на Twitter заявиха, че ще спрат акаунти, заподозрени в публикуване на дълбоко фалшиво съдържание без съгласие. Сайтът за чат Discord е предприел действия срещу дълбоките фалшификати в миналото и е заел обща позиция срещу deepfakes. През септември 2018 г. Google добави „неволни синтетични порнографски изображения“ към своя списък за забрана, позволявайки на всеки да поиска блок от резултати, показващи фалшивите им голи фигури. През февруари 2018 г. Pornhub заяви, че ще забрани дълбоко фалшиви видеоклипове на уебсайта си, защото се счита за „съдържание без съгласие“, което нарушава техните условия за ползване. Те също така заявиха по-рано пред Mashable, че ще премахнат съдържание, маркирано като deepfakes. Писатели от дънната платка от Buzzfeed News съобщиха, че търсенето на „deepfakes“ в Pornhub все още извежда множество скорошни дълбоки фалшиви видеоклипове.

Facebook по-рано заяви, че няма да премахва дълбоките фалшификати от своите платформи. Вместо това видеоклиповете ще бъдат маркирани като фалшиви от трети страни и след това ще имат намален приоритет в емисиите на потребителите. Този отговор беше предизвикан през юни 2019 г., след като дълбоко фалшифициране, включващо видео на Марк Зукърбърг от 2016 г., разпространено във Facebook и Instagram.

Правен отговор

В Съединените щати има някои отговори на проблемите, породени от deepfakes. През 2018 г. Законът за забрана на злонамерените дълбоки фалшиви беше представен в Сената на САЩ, а през 2019 г. в Камарата на представителите беше въведен Законът за отчетността на DEEPFAKES. Няколко щата също са въвели законодателство относно дълбоките фалшификати, включително Вирджиния, Тексас, Калифорния и Ню Йорк. На 3 октомври 2019 г. губернаторът на Калифорния Гавин Нюсъм подписа законосъобразни законопроекти № 602 и № 730. Законопроект № 602 на асамблеята предоставя на лицата, насочени към сексуално изрично фалшиво съдържание, направено без тяхното съгласие, причина за действие срещу създателя на съдържанието. Законопроект № 730 на събранието забранява разпространението на злонамерени фалшиви аудио или визуални медии, насочени към кандидат, който се кандидатира за публична длъжност в рамките на 60 дни след избирането им.

През ноември 2019 г. Китай обяви, че дълбоките фалшификати и други синтетично фалшифицирани кадри трябва да носят ясно известие за тяхната фалшивост от 2020 г. Неспазването на изискванията може да се счита за престъпление, посочва администрацията на киберпространството на Китай на своя уебсайт. Китайското правителство изглежда си запазва правото да преследва както потребителите, така и онлайн видео платформите, които не спазват правилата.

В Обединеното кралство производителите на дълбоко фалшиви материали могат да бъдат преследвани за тормоз, но има призиви да се направи дълбоко фалшифициране конкретно престъпление; в Съединените щати, където са преследвани толкова различни обвинения като кражба на самоличност, киберпреследване и порно за отмъщение, идеята за по-изчерпателен статут също е обсъждана.

В Канада Communications Security Establishment публикува доклад, в който се казва, че дълбоките фалшификати могат да бъдат използвани за намеса в канадската политика, особено за дискредитиране на политици и влияние върху избирателите. В резултат на това има множество начини гражданите в Канада да се справят с дълбоките фалшификати, ако са насочени от тях.

Препоръчва се:

Вашият коментар

Попълнете полетата по-долу или кликнете върху икона, за да влезете:

WordPress.com лого

В момента коментирате, използвайки вашия профил WordPress.com. Излизане /  Промяна )

Twitter picture

В момента коментирате, използвайки вашия профил Twitter. Излизане /  Промяна )

Facebook photo

В момента коментирате, използвайки вашия профил Facebook. Излизане /  Промяна )

Connecting to %s