Размер на шрифта
Българско национално радио © 2025 Всички права са запазени

"В европейския закон трябва да има списък от изисквания към разработването на големите езикови модели"

Нико Миай: Чака ни епидемия от предизборна дезинформация, ако няма контрол върху изкуствения интелект

"В момента имаме безконтролно машинно обучение, при което дори разработчиците не разбират изцяло как се развиват самите системи"

| Интервю
Снимка: Pixabay

Преди седмица дойде изненадваща новина от Силициевата долина - шефът на компанията, разработила популярния чат-бот ChatGPT, беше уволнен. Бордът на директорите на OpenAI освободи Сам Алтман с краткото обяснение, че не е бил достатъчно искрен в комуникацията с тях.

Езиковият модел GPT и чат-приложението му са разработките, които най-ясно показаха огромните темпове на развитие на изкуствения интелект през последните години. Този бърз скок увеличи и притесненията, че светкавичното машинно обучение може да се окаже извън човешкия контрол. Затова се забързаха и опитите за регулация. На този фон, малко преди уволнението си Алтман съобщи, че догодина екипът му ще представи такива технологии, че ChatGPT ще изглежда като застаряващ роднина.

Каквито и да са били притесненията на борда на директорите, Алтман излезе победител. С подкрепата на почти всичките си служители, както и на основния инвеститор "Microsoft", той беше върнат като изпълнителен директор. Двама от тримата членове на директорския борд, които гласуваха за освобождаването ум, вече не са част от ръководството на Open AI. И така - Сам Алтман остава начело на революцията на изкуствения интелект

Кои по-малки и по-големи аспекти на тази технологична революция ни разкрива драмата в OpenAI?

"Показа противоречия на две нива. Едното - как балансираме (огромните) инвестиции в разработките на нови възможностти на изкуствения интелект. Второто - колко инвестираме в обезопасяването на изкуствения интелект. С други думи - балансът между новите възможности и  безопасността. Мисля, че в сърцевината на този скандал е неразбирателство по въпроса как развитието на технологията да бъде съобразено със стандарти за безопасност," смята Нико Миай, политически съветник по въпросите на изкуствения интелект, съосновател на организацията The Future Society.

"Изглежда че е имало натиск за ускорено разработване на нови инструменти, а от друга страна - опити този процес да бъде забавен или дори спрян. Компания като Майкрософт, която е инвестирала десетки милиарди (в OpenAI), има интерес от бързото разработване. В борда имало хора, които са били против. Мисля, че именно тези противоречия в конкретния случай ще станат ясни през следващите седмици и месеци."

Снимка: БТА

Самата компания OpenAI е интересен случай - стартира и до момента частично остава организация с идеална цел, която е изкуственият интелект да се разработва безопасно и в полза на цялото човечество. Сега обаче имаме огромните инвестиции на "Майкрософт", както и търговския дял от компанията, чрез който големи корпоративни клиенти купуват и внедряват разработките й. Най-популярната е езиковият модел GPT, захранващ oбщодостъпното приложение ChatGPT. Едновременно с това OpenAI го продава на гиганти като "КокаКола" или "ПрайсуотърхаусКупърс", които го използват в собствена полза. Идеята е да се набират средства за голямата цел - безопасната мислеща машина, ползите от която са споделени

Сам Алтман не е програмист или инженер, нито хуманитарист, анализиращ етичните въпроси, а инвеститор. От друга страна, той се превърна в говорител на AI-индустрията и пред американския Конгрес и заяви, че би желал развитието да е съобразено със стандарти за безопасност. Не е ли пресилено разбирането, че този своеобразен лидер на технологичната революция рискува тя да унищожи човечеството? 

"Трябва да имаме предвид, че докато в САЩ той твърдо застана зад регулирането на технологията, в Европа използва по-меки начини да лобира за по-малко регулации. Нямаме никакви гаранции колко е искрен в позицията, че одобрява регулациите."

Получава ли се така, че бизнес дялът на Open AI и индустрията изобщо, продължава да надвива борещите за етични норми?

"Появата на GPT4, обновеният езиков модел зад ChatGPT, създаде огромно търсене, както от различни бизнеси, така и от потребителите. Отварянето на този голям нов пазар увеличи инвестициите до безразсъдни мащаби. А в центъра на тези системи остават едни своеобразни черни кутии, чийто начин на работа нито е сигурен, нито може напълно да се обясни. Така се повишава рискът от инциденти и злоупотреби. Оттам и призивите за забавяне в това развитие.

Драматичната ситуация (в OpenAI) ни показва нуждата от общи правила и твърди регулации, на базата на които да се развиват тези езикови модели. Саморегулирането и самоконтролът не работят. Това оправдава и натиска на Европейския парламент в предстоящия европейски закон за изкуствения интелект да се съдържа и набор от общи правила." 

След малко ще стигнем до регулациите. В отговорите досега описвате едно разделение в сферата на разработването на изкуствения интелект между т.нар. дуумъри и буумъри. Първите, дуумърите, са хората, които виждат екзистенциален риск за човечеството в тези технологии и искат на първо място да се разработят стандарти за безопасност. Такива са както вашите притеснения, така явно и тези на част от вече бившите членове на борда на директорите на OpenAI. Вторите, буумърите, какъвто предполагаемо е Алтман, се борят за възможно най-бързо развитие, което и възможно най-бързо да ни достави ползите от изкуствения интелект - независимо дали под формата на лични помощници, които да ни помагат с ежедневните задачи, или на програми, които да открият лечение на тежки заболявания. Според тях, този процес не трябва да се спъва от излишно регулиране. Кой от двата лагера печели? 

"Сякаш буумърите печелят, тъй като все повече модели се разработват и вече се използват, без да разбираме същността им. Постигнали ли сме т.нар. приравняване на изкуствения интелект (съобразяването му с общи цели, етични норми и стандарти за безопасност)? Имаме ли гарантиран контрол? Не, нямаме. В момента имаме безконтролно машинно обучение, при което дори разработчиците не разбират изцяло как се развиват самите системи. Приложенията се увеличават и тези технологии придобиват все по-голямо икономическо значение. Трябва да забавим темпото, включително чрез регулации, за да не попаднем в ситуацията, в която обществото и най-уязвимите преки потребители плащат цената." 

Всъщност кои непосредствени опасности от бързото развитие на изкуствения интелект ви притесняват? 

"Дезинформацията и липсата на информация са голям риск. Идва година, в която милиарди хора по света ще участват в съдбоносни избори - в Индия, в Съединените щати, във Великобритания, (в Европейския съюз) и на други места. Все по-широката употреба на големите езикови модели и генераторите на изображения и звук повишава риска от епидемия на фалшивата информация в този съдбоносен момент. В сфери на икономиката, където тези инструменти са вградени, виждаме, че те не са безгрешни. По-лесно е да приемем объркана от алгоритъма резервация за ресторант, но в следващия момент тези инструменти могат да се използват и за подобрени кибератаки. Големите езикови модели показват умения за програмиране, които могат да се използват и за разработване на нови видове по-ефективни компютърни нападения." 

Да погледнем към опитите за регулация - Евросъюзът подготвя своя закон, Белият дом го изпревари с указ, задължаващ разработчиците да споделят информация за потенциално опасни приложения на изкуствения интелект. Не е обаче ясно как точно ще заработи тази заповед на практика. Не ни е докрай известно и какви правила следва Китай. Но тези големи правителства, седнаха заедно с бизнеса и обещаха безопасността да е на първо място на събирането им в Блечли парк, Великобритания. Достатъчно ефективни ли са усилията за регулация и как могат да се подобрят?

"Това, че срещата в Блечли парк доведе до обща политическа декларация, си струва да се отбележи, както и че Западът прие Китай да участва. Но това е само декларация, а не регулация. Най-амбициозната такава регулация, която в момента е на масата, е европейският закон, покриващ 500 милиона потребители. Той може да има голям и траен ефект, но ако този важен закон не успее да наложи ефективна регулация, която да постави безопаснотта като условие за разработките, ние може никога да не разрешим този проблем.

Саморегулацията не работи и затова е важно на финалната права на създаването на европейския закон, в него да бъде включен списък от изисквания към разработването на големите езикови модели и другите видове генеративен изкуствен интелект. Една от причините Белият дом да избърза със своя указ е именно подготовката на европейския закон. С финалните преговори в Брюсел съвпаднаха също срещата в Блечли парк и списъка с правила на Г-7."

Колко ефективно решение е отвореният код - т.е. програмният код на големите езикови модели и другите видове генеративен изкуствен интелект да е общодостъпна - нещо, което компанията на Марк Зукърбърг "Мета" направи с техния езиков модел? От една страна, това предполага напълно прозрачно развитие и адресира притеснението, че не ни е известно с какви данни и на какъв принцип Open AI, Гугъл и други компании обучават своите модели. От друга - достъпността на такъв код забързва още повече и още по-безконтролно развитието на технологията.

"Отвореният достъп до кода на толкова мощни модели може да има точно този ефект - да увеличи опаснотта от киберзаплахи и грешки. Едновременно с това не можем и да оставим няколко компании да разработват също толкова мощни инструменти на тъмно. Трябва ни баланс, което ще рече преосмисляне на самото понятие "отворен код". Това трябва да означава едновременно споделен достъп и споделен контрол върху технологията."

По публикацията работи: Яна Боянова

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Болницата в Белоградчик

Опит за приватизация на болницата в Белоградчик. Ще я спаси ли от фалит?

70% от дяловете на болницата в Белоградчик ще бъдат приватизирани. Процедурата ще бъде открита след решение на Общинския съвет. Целта е лечебното заведение да бъде спасено от фалит .  Решението е взето по предложение на кмета на Белоградчик Боян Минков, който го аргументира с лошото финансово състояние на болницата и реалната опасност от фалит..

публикувано на 23.01.25 в 06:19
Дора Симеонова

Кои са най-подходящите места за посещение в началото на годината

Кои са най-подходящите места за посещение в началото на годината? Препоръки ни дава пътуващия инфлуенсър Дора Симеонова: " Първите ми посещения бяха в приказни зимни места в нашата страна, в къщи за гости. Вече бяхме на Боровец и Пампорово . Миналата година най-вълнуващото ми посещение беше в Тайланд, на остров Пукет , което за две седмици ни..

публикувано на 22.01.25 в 10:37
Кипърският шампион АПОЕЛ и Георги Костадинов се разделиха

Кипърският шампион АПОЕЛ и Георги Костадинов се разделиха

Кипърският шампион АПОЕЛ (Никозия) обявява приключване на сътрудничеството си с футболиста Георги Костадинов, съобщи клубът на страницата си в интернет. Костадинов си тръгва от Никозия след 2,5 години сериозно присъствие, като е изиграл общо 89 мача с АПОЕЛ във всички турнири, вкарал е 6 гола и е подал 4 асистенции. С жълто-синия екип той..

публикувано на 21.01.25 в 22:04
Проф. Колин Прайс

Могат ли и трябва ли мобилните телефони да предупреждават за бедствия или катастрофи?

При природни бедствия: тежки бури, наводнения и пожари по телефона предупреждават намиращите се наблизо хора за опасността, като дори я изчисляват в процент и поставят жълт или червен код. Израелска иновация показва точно обратната корелация: мобилните телефони (с вградените си сензори) могат по-рано от метеорологичните станции и постовете на..

публикувано на 21.01.25 в 10:51
Асен Миланов

Енергийният терапевт Асен Миланов: Благодарният човек не мрази другите!

Във връзка с Международния ден на най-учтивата дума "Благодаря" , който беше преди дни, ви срещаме с енерго терапевт Асен Миланов . Тази дума е разменна монета, която остойностява нашата признателност за направеното ни добро . Замислете се само колко пъти на ден благодарите на някого или за нещо на глас или на ум. Това е дар на блага,..

публикувано на 13.01.25 в 18:10
Вени Марковски

Вени Марковски: Да се установи практика за ненасърчаване на зловредно съдържание

Трябва да се намери точният баланс между свободата на словото , която не трябва да бъде накърнявана,  и свободата на хората да не бъдат подвеждани чрез фалшива и манипулирана информация . Това каза пред БНР Вени Марковски, съосновател и председател на Българското интернет общество, във връзка с обявените от главния изпълнителен..

публикувано на 12.01.25 в 12:39

Хлебопроизводители в Силистренско: Ако има завишение, ще е с 10 ст., не с 10-15%

По-скъп хляб купуват вече и в Силистра. Увеличението в търговската мрежа е от 20 до 40 стотинки . Според производители толкова рязко покачване на цените не е оправдано. На същото мнение са и потребителите. Доскоро един от най-евтините хлябове беше на цена от 1,50 лева, а днес се продава вече за 1,90 лева , показва проверка в магазините...

публикувано на 10.01.25 в 10:17