И докато обикновено се говори за това как целта на фалшивите новини е да повлияят върху хората и то най-често въздействайки върху техните емоции, то последното изследване на Горан Георгиев сочи, че вече са налице и по-сложни методи, които обаче изцяло могат да подменят представата за обективна реалност.
"Разследването ни всъщност е върху т.нар. "Правда" екосистема, като за нея разбираме за пръв път от френската агенция, наречена Viginum, която всъщност е първата агенция в света, която работи изцяло с данни с отворен достъп. Те всъщност са първите, които идентифицират "Правда" екосистемата, като тя самата е част от една още по-голяма мрежа, която за пръв път се установява през 2013 г. или 2014 г. Нейната активност се засилва значително след началото на руската инвазия на Украйна през февруари 2022 година. Тогава тази "Правда" екосистема започва да публикува хиляди статии на ден. В днешно време вече са стигнали до над 10 000 статии на ден. Когато Viginum установяват тази екосистема, тя не изглежда като обичайните пропагандни мрежи на Кремъл или на която и да е друга държава реално, защото например липсват много от обичайните функции, които един потребител в днешно време би очаквал от една медия - да можеш да си създадеш акаунт, да търсиш за определени статии, да имаш интерактивно съдържание, което се променя спрямо твоите кукита. Свикнали сме да е динамично съдържание, което е различно за всеки човек. Докато "Правда" екосистемата и стотиците уеб сайтове, от които се състои, е изцяло статична и всъщност с две думи не е направена, за да бъде четена от хора. Това започва да става много бързо очевидно и следващият въпрос естествено е каква всъщност е целта на тази "Правда" екосистема, която се състои от стотици еднотипни уеб сайтове, които непрекъснато бълват съдържание, голяма част от което е просто генерирано от изкуствен интелект.
С технически анализ се отвори хипотезата, че целта всъщност не е да таргетира човешки аудитории, а алгоритмични системи на най-популярните онлайн услуги, включително търсачки и чатботове. Тези уебсайтове, всеки един от тях е специфично настроен, така че да таргетира определена география или език, т.е. от тези стотици уебсайтове ти имаш един за Франция, един за Великобритания, един за Щатите, един за абсолютно всяка европейска страна всъщност, за всички страни в Северна Америка, но също така и в стратегически избрани страни в Северна Африка, Близкия изток, централна Азия. Всъщност мрежата има глобален обхват", разказа Георгиев.
Изследователят обясни защо България се оказва в много по-уязвима позиция.
"При нас нещата са по интересни от гледна точка на това, че тези динамики директно се влияят от това в какво състояние е било информационното пространство, когато се въвеждат и стават широко използвани чатботовете. Ако погледнем английски говорещото интернет пространство, когато човек напише някакъв въпрос или каквото и да е свързано с международна политика, да кажем, в Google първите 10 резултата, които ще види на първата страница по-често, отколкото не ще бъдат от репутационни източници. Да кажем, че 9 от 10 ще бъдат източници, които са с установена репутация.
Като вземем обаче един по-малък пазар като България, там имаш, за съжаление, много по-ограничено съдържание. Имаш много повече проблемни източници. Едно от ключовите неща, когато гледаме отговорите на чат ботовете на различните езици, зависи именно от това до какви източници моделът е имал достъп при тренирането на различните езици и до какви източници има достъп в момента в реално време, защото те вече търсят в интернет в реално време все пак. И ако на английски напишеш: "Кой започна войната в Украйна", например, 9 от 10 резултата, ако не и 10 от 10 ще ти кажат съвсем фактологично кой всъщност е нападнал Украйна. Ако напишеш същия въпрос в Гугъл на български, резултатите ще са много по-смесени. Същото важи и за чатботовете.
Понеже на български вероятността на чатбота да се сблъска с пропагандна статия са много по-високи, отколкото на други езици, шансът чатботът да репликира дезинформация и пропаганда в своя отговор на български, е по-голям, отколкото на други езици. Когато информационният пазар има проблеми, тези проблеми след това се преместват и към резултатите, които виждаш в Google и към отговорите от чатбота. И ние това го репликираме успешно в нашия доклад или иначе казано, когато си комуникираме с най-различни модели - всичко от GPT до Gemini, те връщат на български отговори, които съдържат дезинформация. Много често от самата "Правда" екосистема", каза Горан Георгиев.

Анализаторът от Центъра за изследване на демокрацията посочи, че може да се постигне много по-голяма прецизност на отговорите при внимателно задаване на въпросите.
"Неслучайно си има цял пазар за prompt engineers, както им викат, т.е. хора, които изцяло се занимават само с това да изучават какви са най-ефективните инструкции да бъдат подадени на един бот, но от гледна точка на обикновения човек, който примерно няма да използва изкуствен интелект в някаква по-професионална среда или среда, в която въобще може да ги научи тези неща бих казал, че те ще останат недостъпни за много голяма част от хората просто защото няма да знаят за тях и няма да има кой да им покаже.
Това реално ще е и то вече е отделен елемент от информационната грамотност като цяло и трябва да се въведе въобще в курсове и в цялата идея за медийна и информационна грамотност. Трябва да се преподава като част от тази сфера. Както виждаме, общо взето, бих казал, че повечето хора си го използват така, както биха си говорили с човек. И оттам естествено идват всичките обичайни грешки, които ние знаем, че идват от човешкия дискурс, например това, че понякога сме идеологически настроени или пък лъжем, защото имаме някакъв интерес.
В крайна сметка, тези модели рефлектират нас като хора, те рефлектират създателите си, те никога няма да бъдат машини на истината, защото ние самите никога няма да имаме достъп до някакво обективно пространство, което да възпроизведем, защото сме субекти и това e цялата дефиниция на човека. Естествено, че тези модели идват с всичките грешки, с които идва и самият човек. В този смисъл използването трябва да е много внимателно", предупреди Горан Георгиев.

Анализаторът от ЦИД призова и за по-внимателно използване на езиковите модели.
"Човек малко да седне да прочете и да се образова какво всъщност е един езиков модел и какви са му способностите. Можем ли да говорим за капацитет за логическо мислене или просто симулира такова? То реално симулира такова. Това е просто изключително сложен лингвистичен калкулатор на практика. Това като го разбере човек, общо взето бързо си дава сметка, че то наистина е изключително полезно за много задачи, но за определен вид задачи и аз бих казал, че това са логическите задачи, онези задачи, които могат да се решат следвайки правилата на логиката и на науката - например програмиране, обработка на огромни данни, числови данни, следване на някаква правна логика, защото на практика пак е математика с логика. Така тренирам и анализаторите в центъра, не го използвам за задачи, които включват субективен елемент, което е всъщност повечето задачи, за които повечето хора се сещат, примерно да го питат кой започна войната в Украйна. Там фактологията е ясно, но все пак е субективен въпрос. Или пък въпроси от сорта на, да вземем екстремен пример: "Каква е стойността на човешкия живот?"
Няма абсолютно никакъв смисъл да питаш модел за смисъла на живота или за кое красиво, кое не. То е забавно, но трябва да се прави само за забавление. Хора, когато спорят онлайн, примерно във Facebook или някъде другаде, просто атачват скрийншот с отговора на GPT, който ти казва, че си абсолютно прав. Само че ти можеш да му кажеш каквото пожелаеш. То е сикофант, то ще ти каже и на най-тъпото нещо, че си абсолютно прав, а освен това ти можеш да го манипулираш да ти отговори каквото искаш. Ако му зададеш други инструкции в по-горна интеракция, която не се вижда на скрийншот. Тi на скрийншота виждаш само единия му отговор, а той човекът може да е написал отгоре: "Аз сега ще ти задам еди-какво си и ти ще ми отговориш еди-какво си". Не може да служи по никакъв начин за критерий за истинност или за автентичност на една информация. Не може да служи сам по себе си да се прецени, доколко е фактологична една информация, или да се даде оценка на субективен въпрос. Моята препоръка би била изцяло да спре да се използват моделите за задачи, които са с много силен субективен елемент", посочи анализаторът.

Георгиев също така даде практически препоръки за използването на езиковите модели в ежедневието.
"За да избегнеш риска напълно, тези субективни въпроси, аз пак бих казал, може би на първоначален етап да започнеш търсенето чрез езиков модел, но в смисъла, в който започваш да разучаваш нещо чрез статията в Уикипедия. Това ще е първото нещо, което видиш и то може да служи като начална точка, но само толкова. Не може да служи като базата на твоето изследване или на твоите представи по определен политически въпрос. Те трябва да дойдат от твоето собствено независимо търсене и идентифициране на източници и оценка на източници,от собственото критично мислене. Не трябва критичното мислене, тази отговорност да се прехвърля на някой друг, каквато е тенденцията. Бих казал, че това е един от най-големите проблеми не само в България, а като цяло - оттеглянето от интелектуална отговорност. Естествено, езиковите модели са поредна стъпка в тази посока. Прехвърля се отговорността за критично мислене някъде другаде. Виждаме какво се получава всъщност", каза експертът.

Георгиев също настоя за повече осъзнатост от страна на всички нас при използването на най-новите технологии.
"Много подценяваме степента, до която поведението ни колективно и индивидуално се влияе от информационната ни среда и до каква степен ние всъщност просто подобно на самите езикови модели репродуцираме това, което вече сме чули или някой ни е казал, или някъде сме прочели. Т.е. много надценяваме капацитета си за независимо критично мислене. В този смисъл определено имаме нужда от повече скромност и от идеята, че все пак не си безгрешен.
Много подценяваме това нещо и бих казал, че е директно свързано с технологията, защото всъщност не е просто съдържанието, което предопределя поведението ни, а самият начин, по който консумираме. Едно е на хартиен носител, друго е печат, вече трето и четвърто е радио и телевизия, но за всеки следващ етап самият медиум променя поведението ни, защото смалява света и отнема интелектуална отговорност. И вече с дигиталния медиум това е експонирано на ента степен. Ако средната сцена в един филм през 70-те е била малко по-малко от минута, времето за което е една сцена в днешно време, е около по-малко от 10 секунди.
Това само по себе си влияе на това как мислиш, влияе на дължината на мисълта ти и до каква степен ти ще успееш да направиш завършена мисъл и от там идва голяма част от тази епистемологична криза - от технологиите всъщност", заяви Горан Георгиев.
С публикация в социалните мрежи лидерът на ГЕРБ Бойко Борисов съобщи, че диалогът между работодатели и синдикати е възстановен. Още утре в Министерството на финансите започват срещи, на които ще бъдат изгладени всички детайли. Това е било решено на среща, провела се по-рано днес в централата на ГЕРБ, в която са участвали министърът на финансите..
" Не може да имаме такова политическо съучастие в насилието над жени" . Това мнение изказа пред БНР Преслава Фентъм-Флетчър от коалицията "Заедно срещу насилието" във връзка с реплика на вътрешния министър Даниел Митов по повод едно тройно убийство, което той нарече "битова драма": "Не можем да минимализираме такива случаи...
"В момента в плоскостта Газа и това, което се случва през последните две години, ние се намираме в контекста на обсъждане на финалните щрихи на така наречения "План Тръмп", 20-те точки на Тръмп ". Това заяви пред БНР Мирослав Зафиров , който дълго време е бил дипломат и старши политически съветник в мисията на ООН за Близкия Изток:..
Визията на кмета за Витоша е тя да бъде достъпна и да може да я ползваме всички софиянци и гости на столицата като един страхотен парк, едно невероятно богатство, за което трябва да бъдем много горди, че имаме. Това заяви пред БНР Георги Лилянов от екипа на "Визия за Витоша" – инициативата на столичния кмет Васил Терзиев за превръщането на..
Фондация "Поглед" организира информационна кампания по темата за насилието над жени и други уязвими групи хора (деца, ЛГБТИ хора, роми, мигранти, хора с увреждания). 1 от всеки 5 жени в България е ставала жертва на насилие "Кампанията ни започна още от 1 ноември" . Това коментира пред БНР Калоян Калинин , основател на фондация "Поглед" -..
Тревненци отправят молитви за своя свещеник Неделчо Марков , диагностициран с тежко заболяване. Преди дни тревожната новина бързо обиколи жителите на Трявна, а помощта дава надежда на семейството на свещеника, че ще успее да се справи с финансово непосилното за тях лечение в Турция. Поп Неделчо събира хората в Трявна и за хубаво, и за..
Информация за търг за продажба на бракувани служебни коне на полицията доведе до остри реакции в социалните мрежи, както и до петиция за промяна на отношението към животните, които работят в полза на обществото. От сдружение КАЖИ ("Кампании и активизъм за животните в индустрията), което инициира петицията, настояват за спиране на търга,..