Размер на шрифта
Българско национално радио © 2025 Всички права са запазени

"Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео"

Мелъни Мичъл: Има малка вероятност машините да станат съзнателни, по-притеснително е как хората използват изкуствения интелект

Снимка: Pixabay



Кои са реалните опасности от впечатляващото развитие на изкуствения интелект - че ще унищожи човечеството, че ще ни отнеме контрола върху цивилизацията, или че само ще започне да ни измества от работните места и ще ни залее с фалшиви видеа? Не спират новините около развитието на големите езикови модели, като ChatGPT и другите видове генеративен изкуствен интелект. Не секват и предупрежденията относно видимите огромни технологични скокове, а вече все повече са и политическите заявки за избягване на опасностите чрез регулация.


Константин Мравов потърси мнението на един особено значим специалист в сферата - професорът от Института в Санта Фе Мелъни Мичъл. Тя изследва развитието на изкуствения интелект през последните 40 години. Книгата й "Изкуствен интелект - наръчник за мислещи хора" е смятана за едно от най-добрите и достъпни обобщения по широката тема. Издадена в далечната за тази сфера 2019 година, тя обръща сериозно внимание на големите етични въпроси, които ни занимават днес.

- Новините в сферата на изкуствения интелект и големите езикови модели, като GPT, не спират и някои значими изказвания правят силно впечатление. Преди 2 седмици професор Джефри Хинтън, един от учените, наричани "Кръстници на Изкуствения интелект", напусна високия си пост в Google. По собствените му думи - за да говори за рисковете от бързото развитие на технологията. Според Хинтън, технологичната надпревара между Microsoft и Google в това поле ще доведе до толкова много "фалшиви изображения и текст, че повече никой няма да може да разпознае истината." Съгласна ли сте с тази оценка?

Съгласна съм, че има огромна опасност от използването на изкуствения интелект за генериране на фалшиви изображения и текстова информация. Системите стават все по-добри и вече е трудно да разбереш какво е реално. Проф. Хинтън е един от най-познатите в това технологично поле, но е важно да се каже, че много хора отправят същите предупреждения от години. Google имаше силен екип за AI-етика, ръководен от Тимнът Гебру и Маргарет Мичъл, които бяха уволнени преди повече от 2 години заради доклад с подобни предупреждения. Чудесно е, че проф. Хинтън сега се присъединява към притесненията им.

Случаят с Гебру и Мичъл ни показa още през 2020, че големите корпорации явно смятат етичните въпроси за вторични спрямо финансовите и други ползи от светкавичното развитие на изкуствения интелект в различните му приложения. Достигнахме обаче момента, в който езиковите модели са интегрирани в търсачките на Google и Microsoft - тоест, те формулират отговори на въпросите на милиарди хора по света, въпреки многото проблеми с компилираната от тях информация и липсата на прозрачност как всъщност биват обучавани.


Големите компаниите имат за цел да разработват продукти и да постигат финансови резултати, защото отговарят пред акционерите си. Етичната част не е приоритет, защото не  дава предимство пред конкуренцията. Публикуването на големите езикови модели, като ChatGPT и Bard на Google, ни показа сериозни етични проблеми, тъй като могат да се ползват за съчиняване на реалистично звучаща фалшива информация. Други приложения като DALL-E и Stable Difusion създават реалистични изображения. Има малко регулация и етични спирачки, което се дължи и на огромната конкуренция - Google и Microsoft не искат да изостават една от друга.

- Но по-голямата регулация изглежда неизбежна, като такива решения се подготвят и в диалог със самите компании. Белия дом наскоро събра големите AI-шефове и поиска "етично развитие" на технологията. Преди това ресорните министри на страните от Г-7 приеха план за регулация върху AI-разработките, основана на риска. По подобен начин в планиран европейски закон се въвежда дефиниция за "високо рискова" употреба на изкуствения интелект. С надежда ли трябва да гледаме към плановете за регулация поне в Западния свят?

- Има проблем с това, че тази технология е глобален феномен, а отделните страни могат да наложат регулации само на своя територия. Другият проблем е, че самата технология се развива изключително бързо и е трудно регулаторните органи да спазват темпото, особено когато ръководителите на правителствата са хора, които не я разбират. Пример за това е т.нар. "право да бъдеш забравен" в европейския регламент за защита на данните GDPR. То означава, че можете да поискате ваши лични данни да бъдат изтрити от интернет база данни, в която са попаднали. В момента обаче е технологично невъзможно да накараш някой от големите езикови модели като GPT да забрави напълно, тоест да изтрие вече придобита подобна информация. Ето защо регулациите трябва да бъдат съобразени с възможностите на тези модели. Или последващите технологични разработки да са съобразени с изискването да могат да забравят лични данни.

- Да се върнем към друго изказване на Джефри Хинтън, което ни насочва към популярно предупреждение. Той смята, че моментът, в който изкуственият интелект ще стане по-интелигентен от човека, вече не е толкова далеч. И на обикновените хора това не изглежда странно, предвид поемите на езиковите модели и красивите картини на генераторите на изображения. Що се отнася само до изчисления, отдавна човекът не може да смята по-бързо от калкулатор, нито да спечели срещу компютър на шах.

От друга страна, току-що помолих ChatGPT да напише три изречения, в които третата дума е "ябълка" и програмата не успя да се справи със задача, която е по възможностите на всеки от нас. Други тестове показват как езиковите модели понякога изпитват затруднения с проста математика.  

И въпреки това изказването на Хинтън не е единственото предупреждение относно скорошното достигане на т.нар. Общ изкуствен интелект - компютърен ум на човешко ниво, но с невъобразимо по-голяма изчислителна мощ. И вие ли смятате, че се приближаваме към този момент?

AGI или Общият изкуствен интелект се дефинира по различен начин от различни хора. Чувала съм го като "машина, която е по-умела от хората във всички когинитивни задачи". Тук не говорим за физически умения, като да изкопаеш дупка. Не е лесно обаче да отделим физическите си умения от когнтивните способности. Също така, можете ли да направите списък на всички аспекти на човешкото познание, които използваме в живота си? Хората не осъзнават сложността на собствената си интелигентност, защото много от продиктуваните от нея действия извършваме подсъзнателно.

Нивото на човешкия интелект, доколкото можем да го дефинираме, все още е далеч от възможностите на машините. Системи като GPT-4 правят невероятни неща, но все още допускат немислими за човека грешки. Не знам дали и как може да се пророкува кога изкуственият интелект ще има човешка интелигентност, но във всичките десетилетия на неговото разработване някой повтаря, че този момент е близо. А той все не идва и аз все още мисля, че е далеч.  

- Тоест - трябва да сме по-притеснени от начина, по който хората ползват сегашните възможности на технологиите, отколкото от възможността машините да станат съзнателни?

Има малка вероятност машините да станат съзнателни подобно на живите същества и да придобият собствени желания и мотивация. Поне в близкото бъдеще не виждам такава възможност. Много по-притеснително е как хората използват тези системи в политическата сфера, рекламата и в общия смисъл за манипулация.

Защото генераторите на изображения и видео вече ви предлагат реалистично изглеждащ бой между Кейт Мидълтън и Мегън Маркъл, или пък привидно истински Владимир Путин и Доналд Тръмп по халати, седнали в едно легло. Компилирайки текст по ваша заявка, езиковите модели, също като хората, могат да включат лъжлива информация, прочетена от тях в интернет. Към момента няма прозрачност на какви бази данни и по какъв начин големите дигитални компании тренират изкуствения интелект.


- Как да ограничим рисковете? Някои специалисти предлагат разработките  да се извършват в затворена среда, тоест без достъп на системите до интернет. Други поглеждат към междуправителствени споразумения и примера на ЦЕРН - Европейския център за ядрени изследвания - съвместен за 23 държави. Едно припомняне - световната мрежа е родена именно в ЦЕРН, най-напред като средство за обмяна на научна информация. Трябва ли да се насочим към подобни модели на научно сътрудничество в сферата на изкуствения интелект?

- Да оставим разработването на изкуствения интелект на големите търговски компании е опасно. Причината са по-рано споменатите проблеми и липсата на прозрачност при разработките. Ако ЦЕРН е позитивен пример, то е защото научните му разработки са в обща полза, предвид правителственото финансиране, а не в такава на голяма компания. Това е ценна възможност и в полето на изкуствения интелект.

В момента в Съединените щати се работи по създаването на институти за AI-разработки, които се финансират от Националната научна фондация. Това е държавна институция. Има такива проекти и в Европа, а междуправителствен модел като този на ЦЕРН ще позволи на учени извън големите компании да разработват, изследват и разберат по-добре изкуствения интелект, но при прозрачност на научната им работа. Това дава и по-добра възможност за справянето със заплахи като разпространяването на дезинформация чрез изкуствен интелект.

- На бъдещето оставяме въпроса как работата на такива центрове с публично финансиране, образно казано, ще съжителства с тази на търговските компании. В настоящето сме впечатлени от човешки звучащите отговори на ChatGPT. Но на кои други приложения на генеративния изкуствен интелект следва да обърнем най-голямо внимание?

Освен върху човешки език, тези системи се тренират на компютърен код и са много успешни в генерирането на код по заявка. Мога да поискам на английски от голям езиков модел да създаде определена компютърна програма и той ще ми даде програмен код, който често е много добър. Това е важно за цялата софтуерна индустрия. От определена гледна точка, тези системи показват по-добри възможности в програмирането, отколкото в човешката комуникация.

Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео. Такива мултимодални генеративни системи ще могат например да изгледат видеоклип и да задават въпроси по съдържанието или пък да го обобщят. Ще могат да опишат някакво изображение на незрящи хора. И в следващите години ще има голям интерес към тези мултимодални системи, които съчетават възможността за езиково общуване с разбирането на аудио и видео съдържание.

По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ

Пътищата в област Монтана са почистени и опесъчени

2 сантиметра снежна покривка изкара техника по пътищата в Монтанско. През нощта в региона са работили 33 машини. Пътищата от републиканската пътна мрежа в област Монтана са почистени и опесъчени. През нощта са работили 33 машини, съобщиха от Областно пътно управление. Рано тази сутрин и имало закъсали тирове между селата Смоляновци и..

публикувано на 13.02.25 в 09:27

Ще бъдат отделени 300 хил. лева за обследване състоянието на яз. "Кюстендил"

Заложени са 300 хил. лева в държавния бюджет, който предстои да бъде приет, за обследване състоянието на започнатия преди повече от 50 години язовир "Кюстендил", каза за БНР областният управител инж. Александър Пандурски.  Това става след срещи в МРРБ и съдействието на вицепремиера Атанас Зафиров, който се запозна с проблема на място при..

публикувано на 13.02.25 в 09:10
Ружа Смилова

Ружа Смилова: Правителството има свръхмнозинство и подкрепа от двете ДПС-та

От страна на Бойко Борисов се наблюдава твърде партизанско отношение към институции, които би трябвало да бъдат независими . Това мнение изрази пред БНР политологът Ружа Смилова. По думите ѝ, изказванията на лидера на ГЕРБ се обвързват само и единствено с подкрепа на тези, които подкрепят управление на Борисов и не се търси по-широк..

публикувано на 13.02.25 в 09:01
Георги Вулджев

Георги Вулджев: Фрагментирано производство, внос на храни – високи цени!

Като цяло подкрепям такива инициативи като бойкота, защото във всяка държава трябва да има потребителска култура. Ако е само за ден, ще има символичен характер, но ако продължи като в Хърватия, в един момент дава ефект, дори политически. Това каза в интервю пред БНР Георги Вулджев от ЕКИП и член на Българското либертарианско общество...

публикувано на 13.02.25 в 08:53
Атанас Запрянов

Над 234 млн. отиват за спешни ремонти на летище "Граф Игнатиево"

Малко над 234 300 000 лева без ДДС струват 4 спешни договора за строително-монтажни работи на летище "Граф Игнатиево". Това е посочено в отговор на министъра на отбраната Атанас Запрянов на въпрос на депутата Ивайло Мирчев. През октомври миналата година Министерството на отбраната е поканило фирмите, а  за първи път от обявяването на..

публикувано на 13.02.25 в 08:36
Ричард Алибегов

Ресторантьори се събират в Търново, за да приемат мерки за защита на 9% ДДС

Ресторантьори от страната се събират на национална среща във Велико Търново, за да приемат мерки за защита на диференцираната ставка от 9% за Данъка върху добавената стойност за заведенията. В проектобюджета на държавата, който предстои да бъде приет от парламента, се предвижда ДДС за заведенията за хранене да се върне на 20%, както беше..

публикувано на 13.02.25 в 08:27
Кремена Атанасова

Кремена Атанасова: Държавните служители не са привилегировани, ощетени са!

Години наред политиците ни не спират да атакуват държавната администрация, която изпълнява техните политики на терен . В последно време ескалират подобни атаки. Това мнение изрази пред БНР Кремена Атанасова, председател на Синдиката на административните служители към КТ "Подкрепа". Държавните служители не заплащат своите осигуровки от..

публикувано на 13.02.25 в 08:21