Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Д-р Александър Кирков:

Налагат се ограничения за дълбочината, на която може да работи дийпфейк

Снимка: rawpixel.com

Появяването на дигитално манипулирани медии от ново поколение създаде предпоставки не само за по-широката им употреба в различни сфери, но и възможности за сериозни злоупотреби. Напредъкът в изкуствения интелект позволи да бъдат разработвани фалшиви видеоклипове с много висока степен на реалистичност, които изобразяват човек, който казва или прави нещо, което всъщност самият той никога не е казвал или извършвал.

Технологията стана популярна под термина “дийпфейк” /deepfake/, комбинация от думите за „дълбоко машинно обучение“ и „фалшификат“. Основната технология се използва и за създаване на манипулирани аудиозаписи, графични изображения и текстове.

Освен за държавни и военни нужди, дийпфейк технологията има много широко разпространение в много други сфери на обществения живот - киното, медиите, обучението на кадри и др, посочи д-р Александър Кирков, ръководител на Научноизследователската лаборатория по кибернетична сигурност в УниБИТ в подкаста за изкуствен интелект на “Черната кутия”. "Вече има алгоритми, които са много добре оптимизирани и са достъпни през интернет, всеки потребител с компютър, който е малко над стандартното ниво, може да се възползва от дийпфейк софтуер," отбеляза специалистът.

През последните годините нашумяха различни манипулирани видеоклипове на президента Барак Обама, на британската кралица и дори на самия дигитален гуру Марк Зукърбърг.

Д-р Кирков подчерта, че поради бързото усъвършенстване на технологията и социалните рискове, които произтичат от това, вече се налагат различни ограничения, в това число и изискване към разработчиците за дълбочината, до която може да работи дийпфейк, като винаги остава преливане на два образа, а не се синтезира само образа на целта. 

Най-често използваните дийпфейк решения могат да бъдат поставени в три категории - дийпфейк видео, клониране на глас и синтез на текст.

Дийпфейк видео

Няколко са факторите, които доведоха до стремително подобряване на възможностите за манипулиране на изображения. Специалистите по компютърно зрение разработиха алгоритми, които могат автоматично да картографират ориентири на лицето в изображения, да речем позицията на веждите и носа, като подобриха технологиите за лицево разпознаване. Бърз възход отбелязаха платформите за споделяне на видео и снимки, създавайки огромен обем аудио-визуални данни на разположение. На трето място трябва да бъдат отбелязани новите инструменти в областта на криминалистиката и разследванията, особено тези за автоматично откриване на фалшификати.

Два специфични подхода за изкуствен интелект често се срещат в програмите за дълбоко фалшифициране: Generative Adversarial Networks (GAN) и автокодери. GAN са алгоритми за машинно обучение, при които две невронни мрежи работят в конкуренция. Те анализират набор от изображения и създават нови със сравнимо ниво на качество. Автокодерите могат да извличат информация за черти на лицето от изображения и я използват за конструиране на изображения с различен израз.


Технология за клониране на глас

Технологията за клониране на глас позволява на компютрите да създават имитация на човешки глас. Софтуерните методи за клониране генерират синтетична реч с много висока степен на достоверност, наподобявайки определен човешки тембър. Технологията текст към глас/Text-to-Speech/ вече е неотменима част от стандартната потребителска електроника. Сред най-популярните решения са Google Home, Apple Siri и Amazon Alexa, както и навигационни системи.

Технология за синтез на текст

Технологиите за синтез на текст в дийпфейк контекст се използва за генериране на текстове, които имитират определен стил на изразяване. Те разчитат до голяма степен на обработката на естествен език (NLP). Основното приложение на NLP e за подобряване на текстовите и вербалните взаимодействия между хората и компютрите. Системите са в състояние да обработват големи количества информация, включително и да дешифрират аудиозаписи. Те могат да интерпретират речта до известна степен, достигайки до ниво на разбиране на изразените емоционални нюанси. Така се оформя модел на стила на говорене на определен човек, който от своя страна може да се използва за синтезиране на нова реч.

Откриване и превенция

Развитието на дийпфейк технологиите доведе до това, че редица компании се специализираха в търсене и определяне на манипулирано медийно съдържание. Единият подход е ръчен, като откриването изисква квалифицирано лице, което да инспектира видеоматериала и да търси несъответствия или признаци за манипулиране. Той е осъществим при работа с по-малки обеми информация. При автоматичния подход се използва софтуер за автоматично откриване, който може да използва комбинация от методи: гласово разпознаване, индикатор за човешка реч, лицево разпознаване, визуални характеристики, времеви несъответствия, липса на достоверни атрибути. Сред най-често срещаните проблеми при дийпфейк идентификаторите обаче е компресията на аудиовизуалните материали, особено в онлайн платформите като социалните медии и чат приложенията. Намаленият брой пиксели при изображенията и данни за описване на звука може да се окажат сериозна пречка при установяването на манипулации.

Повече за тенденциите в развитието на дийпфейк технологиите и противодействието на вредните им проявления чуйте от д-р Александър Кирков, ръководител на Научноизследователската лаборатория по кибернетична сигурност в УниБИТ.

Всички епизоди на "Черната кутия" ще намерите:


БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Татяна Викторова

Кампанията "Родители с тийнейджъри" на Асоциацията на козметиците в България започва на 28 октомври

От 28.10. до 03.11.24 г. (включително) ще се проведе поредното издание на кампанията " Родители с тийнейджъри"  по инициатива на Асоциация на козметиците в България . В рамките на една седмица членове на организацията – козметици ще организират ден на отворени врати в салоните си за красота и ще проведат безплатни..

публикувано на 20.10.24 в 08:32

Община Плевен започна разяснителна кампания в училищата за управлението на електрически тротинетки

Община Плевен започна разяснителна кампания в училищата за управлението на електрически тротинетки. Целта е децата да получат повече информация за правилата за движение и управление на електрически превозни средства, посочени в общинската Наредба № 3. Знаят ли децата ни къде и как да се движат с тротинетки, така че да не застрашават другите, а..

публикувано на 20.10.24 в 07:34

С обичая Пануда се въвежда бебето в общността

Обичаят Пануда е предложението от област Добрич за попълването на Националната система „Живи човешки съкровища - България“ за 2024 година. Кандидатурата е подготвена от Народното читалище „Свобода - 1897“ в село Гурково, община Балчик. Предложението е в категорията „Социални обичаи, обреди и празнични събития“.  През месец ноември..

публикувано на 20.10.24 в 07:23

Община Русе не пуска представителен ансамбъл на престижен форум

Покана за участие в концерт по повод Деня на народните будители разбуни духовете в Русе и се стигна до протест на родители срещу ръководството на Общинския детски център за култура и изкуство . България ще бъде домакин на 53-тия Световен конгрес на организаторите на фестивали за фолклор и традиционни изкуства . Това събитие е от..

публикувано на 18.10.24 в 06:32

За войната като "лейкопласт върху отворена рана"

Йосефа Орел е екскурзоводка, която показва графити из яфенските и телавивски улици. Тя не ги нарича изкуство, а визуален език за комуникация.  Може да се видят графити с вградени в него лицата на отвлечените на 7.10.2023 израелски и чужди граждани , много приличащ на популярния постер, станал символ на войната, която сега се води...

публикувано на 14.10.24 в 11:33

Хранителни добавки - не на всяка цена!

Хранителни добавки – не на всяка цена ! Такъв е съветът на  д-р Михаела Нисторова, специалист "Клинична лаборатория и диететика" в Университетската болница "Св. Марина" в Плевен. "Хранителни добавки не бива да се вземат хаотично. Не бива да се самоназначават", казва тя пред БНР. По-голямата част от витамините могат да бъдат изследвани..

публикувано на 14.10.24 в 10:44

Как да достигнем до забележителностите в и около София с градски транспорт?

Как можем да достигнем до забележителностите в София с градския транспорт и кои са туристическите линии в града? Адриана Борисова – началник експлоатация към Централно управление на Столичен автотранспорт разказва: "Бих искала да започна с най-новите попълнения в редиците на Столичен автотранспорт към направление "Двуетажни линии,..

публикувано на 14.10.24 в 09:52