Eмисия новини
от 21.00 часа
Размер на шрифта
Българско национално радио © 2025 Всички права са запазени

Въпреки мрежата

Никола Тулечки: Ако нещо се вижда с очи, не означава, че е истина и факт

Как Deepfake може да навреди на обществото

Никола Тулечки
Снимка: Даниел Ненчев

Как Deepfake или дълбоките фалшификации могат да навредят на обществото, как да ги разпознаем и имат ли полезна страна, коментира в "Мрежата" по програма "Христо Ботев" Никола Тулечки, лингвист, експерт по данни в "Онтотекст", част от екипа на Factcheck.bg и един от основателите на Сдружение "Данни за Добро"

Deepfake – от английски "дълбок фалшификат" – е един набор от техники, използващи изкуствени интелект, които създават реалистично и неразличимо от истинско видео, аудио- и фотосъдържание. Може да създаде снимка, която да включва даден човек, неговото лице, и то да изглежда сякаш аз съм го снимал, но това нещо е изцяло генерирано. Дали се използва с добро или с лошо, вече зависи от хората, но ние трябва да знаем, че тази технология съществува и че вече е част от нашата информационна среда. Съответно, да имаме едно наум с тази технология.

В какво могат да бъдат излагани хората

"Снимката и видеоматериалите доскоро бяха използвани като един вид доказателство и много силен аргумент, че нещо е факт, че нещо се е случило. Вече не е така, защото тази снимка може да бъде генерирана, видеото може да бъде генерирано и манипулирано. Добре е да се знае, че вече е много евтино да се създава такова съдържание, защото преди, ако имаш безкрайно много ресурси и пари, ще успееш да изманипулираш една снимка или видео. Тук въпросът е, че тази технология вече е безумно евтина. Буквално аз мога да създам видео на даден политик, как танцува гол на улицата и ще ми струва два долара и половин час от времето. И ще бъде много красиво, и ще изглежда като истинско. Достъпността на тази технология дава възможност такъв тип съдържания да бъдат всеприсъстващи и е хубаво хората да имат предвид това."

Как да го разпознаем

"Едно парче съдържание, една снимка, едно видео не стига, за да бъде потвърдено, че нещо е факт или изкуствено генерирано. Според мен, трябва да се постъпва като с писменото или устното съдържание. Ако срещна някой на улицата и той ми казва, знаеш ли, че еди-какво се е случило, аз ще се опитам да потвърдя казаното, защото е възможно човекът да се е объркал, може да има грешна информация. Същото е и когато видя нещо написано, то не е задължително истина. Сега и на снимката вече трябва да се гледа по същия начин – както на някакъв срещнат текст. Трябва да се има предвид къде съм го видял – на произволна фейсбук страница или на сайта на дадена реномирана медия и т.н.

Контекстът е важен, какво се опитва да покаже снимката е важно, създава ли емоция или не. Ако снимката създава някаква емоция, трябва да ни светнат червените лампички, нещо, може би, някой се опитва да ни манипулира.

Също така Deepfake съдържание все повече и повече виждаме не толкова в пропаганда и дезинформация, колкото в класически измами. Примерно имаше сега скоро една кампания с известни журналисти, телевизионни водещи и политици, които ни приканваха да инвестираме в някакви измамни инвестиционни схеми. Такъв тип измами има все повече и повече.

Аз мисля, че те са полезни, между другото, защото са толкова лошо направени, че повечето хора виждат, че това е измама и някак си ги подготвя за това, което идва.

От тази гледна точка това означава, че това нещо може да се използва дори в измами на най-битово ниво. Някой да ти изпрати на телефона видео на детето ти, което е в много тежко състояние някъде. Аз очаквам да има бум на този тип измама. Звъните и детето ти, което с неговия си глас говори и започва да те лъже нещо.

Това пак е вид Deepfake технология, защото от другата страна има актьор, който използва изкуствен интелелект, за да си преправи гласа на детето. Такъв тип измами очаквам много да има. Също и корпоративни измами.

Това не означава, че трябва да спрем да говорим по телефон, но ако детето има Тик-ток или Инстаграм канал, където пуска видеа, оттам може да се вземе гласът му. Това също е временно, защото технологията става все по-добра и по-добра и скоро на алгоритмите ще им трябва все по-малко съдържание.

Като цяло трябва да внимаваме в контекста и да се опитаме по независим начин да потвърдим нещо, ако имаме някакво съмнение или ако въпросно съдържание иска от нас нещо, или предизвика някакво действие.

Трябва да имаме едно наум, че това съдържание може да бъде манипулирано и да потвърдим по някакъв независим начин съдържанието.

Примерно, обажда се детето ви и ви казва "Прати ми пари тук и тук". Най-лесното е просто да му върнем обаждането и да го питаме, вместо да изпращаме пари веднага.

Трябва да имаме такъв тип чувствителност вече. Това, че виждаме нещо с очите си или чуваме с ушите си, не значи, че то е истина и е факт."

Оптимистичната част

"Примерно, тази технология се използва и за правене на обучение, за създаване на лесно видеосъдържание – нещо, което преди това си изисквал някой да прочете някакъв текст, за да научи нещо. Сега вече можем лесно да генерираме актьор, който да го прочете, който да го изиграе като на видео. Така че се ползва и за позитивни цели.

Има доста вълнения в Холивуд, които са точно защото започват да се заменят актьори с аватари, генерирани от изкуствен интелект, и, да, доста неща ще се променят.

Аз съм оптимист, защото мисля, че за нас е странно, но нашите деца ще израснат в тази среда и за тях няма да е толкова странно. Те ще го виждат по съвсем друг начин. Всички ползваме тези технологии и трябва да се научим да работим с тях."


Снимка – Даниел Ненчев, БНР

По публикацията работи: Милена Очипалска

БНР подкасти:

Новините на БНР – във Facebook, Instagram, Viber, YouTube и Telegram.


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!

Горещи теми

Войната в Украйна

Най-четени