Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео"

Мелъни Мичъл: Има малка вероятност машините да станат съзнателни, по-притеснително е как хората използват изкуствения интелект

Снимка: Pixabay



Кои са реалните опасности от впечатляващото развитие на изкуствения интелект - че ще унищожи човечеството, че ще ни отнеме контрола върху цивилизацията, или че само ще започне да ни измества от работните места и ще ни залее с фалшиви видеа? Не спират новините около развитието на големите езикови модели, като ChatGPT и другите видове генеративен изкуствен интелект. Не секват и предупрежденията относно видимите огромни технологични скокове, а вече все повече са и политическите заявки за избягване на опасностите чрез регулация.


Константин Мравов потърси мнението на един особено значим специалист в сферата - професорът от Института в Санта Фе Мелъни Мичъл. Тя изследва развитието на изкуствения интелект през последните 40 години. Книгата й "Изкуствен интелект - наръчник за мислещи хора" е смятана за едно от най-добрите и достъпни обобщения по широката тема. Издадена в далечната за тази сфера 2019 година, тя обръща сериозно внимание на големите етични въпроси, които ни занимават днес.

- Новините в сферата на изкуствения интелект и големите езикови модели, като GPT, не спират и някои значими изказвания правят силно впечатление. Преди 2 седмици професор Джефри Хинтън, един от учените, наричани "Кръстници на Изкуствения интелект", напусна високия си пост в Google. По собствените му думи - за да говори за рисковете от бързото развитие на технологията. Според Хинтън, технологичната надпревара между Microsoft и Google в това поле ще доведе до толкова много "фалшиви изображения и текст, че повече никой няма да може да разпознае истината." Съгласна ли сте с тази оценка?

Съгласна съм, че има огромна опасност от използването на изкуствения интелект за генериране на фалшиви изображения и текстова информация. Системите стават все по-добри и вече е трудно да разбереш какво е реално. Проф. Хинтън е един от най-познатите в това технологично поле, но е важно да се каже, че много хора отправят същите предупреждения от години. Google имаше силен екип за AI-етика, ръководен от Тимнът Гебру и Маргарет Мичъл, които бяха уволнени преди повече от 2 години заради доклад с подобни предупреждения. Чудесно е, че проф. Хинтън сега се присъединява към притесненията им.

Случаят с Гебру и Мичъл ни показa още през 2020, че големите корпорации явно смятат етичните въпроси за вторични спрямо финансовите и други ползи от светкавичното развитие на изкуствения интелект в различните му приложения. Достигнахме обаче момента, в който езиковите модели са интегрирани в търсачките на Google и Microsoft - тоест, те формулират отговори на въпросите на милиарди хора по света, въпреки многото проблеми с компилираната от тях информация и липсата на прозрачност как всъщност биват обучавани.


Големите компаниите имат за цел да разработват продукти и да постигат финансови резултати, защото отговарят пред акционерите си. Етичната част не е приоритет, защото не  дава предимство пред конкуренцията. Публикуването на големите езикови модели, като ChatGPT и Bard на Google, ни показа сериозни етични проблеми, тъй като могат да се ползват за съчиняване на реалистично звучаща фалшива информация. Други приложения като DALL-E и Stable Difusion създават реалистични изображения. Има малко регулация и етични спирачки, което се дължи и на огромната конкуренция - Google и Microsoft не искат да изостават една от друга.

- Но по-голямата регулация изглежда неизбежна, като такива решения се подготвят и в диалог със самите компании. Белия дом наскоро събра големите AI-шефове и поиска "етично развитие" на технологията. Преди това ресорните министри на страните от Г-7 приеха план за регулация върху AI-разработките, основана на риска. По подобен начин в планиран европейски закон се въвежда дефиниция за "високо рискова" употреба на изкуствения интелект. С надежда ли трябва да гледаме към плановете за регулация поне в Западния свят?

- Има проблем с това, че тази технология е глобален феномен, а отделните страни могат да наложат регулации само на своя територия. Другият проблем е, че самата технология се развива изключително бързо и е трудно регулаторните органи да спазват темпото, особено когато ръководителите на правителствата са хора, които не я разбират. Пример за това е т.нар. "право да бъдеш забравен" в европейския регламент за защита на данните GDPR. То означава, че можете да поискате ваши лични данни да бъдат изтрити от интернет база данни, в която са попаднали. В момента обаче е технологично невъзможно да накараш някой от големите езикови модели като GPT да забрави напълно, тоест да изтрие вече придобита подобна информация. Ето защо регулациите трябва да бъдат съобразени с възможностите на тези модели. Или последващите технологични разработки да са съобразени с изискването да могат да забравят лични данни.

- Да се върнем към друго изказване на Джефри Хинтън, което ни насочва към популярно предупреждение. Той смята, че моментът, в който изкуственият интелект ще стане по-интелигентен от човека, вече не е толкова далеч. И на обикновените хора това не изглежда странно, предвид поемите на езиковите модели и красивите картини на генераторите на изображения. Що се отнася само до изчисления, отдавна човекът не може да смята по-бързо от калкулатор, нито да спечели срещу компютър на шах.

От друга страна, току-що помолих ChatGPT да напише три изречения, в които третата дума е "ябълка" и програмата не успя да се справи със задача, която е по възможностите на всеки от нас. Други тестове показват как езиковите модели понякога изпитват затруднения с проста математика.  

И въпреки това изказването на Хинтън не е единственото предупреждение относно скорошното достигане на т.нар. Общ изкуствен интелект - компютърен ум на човешко ниво, но с невъобразимо по-голяма изчислителна мощ. И вие ли смятате, че се приближаваме към този момент?

AGI или Общият изкуствен интелект се дефинира по различен начин от различни хора. Чувала съм го като "машина, която е по-умела от хората във всички когинитивни задачи". Тук не говорим за физически умения, като да изкопаеш дупка. Не е лесно обаче да отделим физическите си умения от когнтивните способности. Също така, можете ли да направите списък на всички аспекти на човешкото познание, които използваме в живота си? Хората не осъзнават сложността на собствената си интелигентност, защото много от продиктуваните от нея действия извършваме подсъзнателно.

Нивото на човешкия интелект, доколкото можем да го дефинираме, все още е далеч от възможностите на машините. Системи като GPT-4 правят невероятни неща, но все още допускат немислими за човека грешки. Не знам дали и как може да се пророкува кога изкуственият интелект ще има човешка интелигентност, но във всичките десетилетия на неговото разработване някой повтаря, че този момент е близо. А той все не идва и аз все още мисля, че е далеч.  

- Тоест - трябва да сме по-притеснени от начина, по който хората ползват сегашните възможности на технологиите, отколкото от възможността машините да станат съзнателни?

Има малка вероятност машините да станат съзнателни подобно на живите същества и да придобият собствени желания и мотивация. Поне в близкото бъдеще не виждам такава възможност. Много по-притеснително е как хората използват тези системи в политическата сфера, рекламата и в общия смисъл за манипулация.

Защото генераторите на изображения и видео вече ви предлагат реалистично изглеждащ бой между Кейт Мидълтън и Мегън Маркъл, или пък привидно истински Владимир Путин и Доналд Тръмп по халати, седнали в едно легло. Компилирайки текст по ваша заявка, езиковите модели, също като хората, могат да включат лъжлива информация, прочетена от тях в интернет. Към момента няма прозрачност на какви бази данни и по какъв начин големите дигитални компании тренират изкуствения интелект.


- Как да ограничим рисковете? Някои специалисти предлагат разработките  да се извършват в затворена среда, тоест без достъп на системите до интернет. Други поглеждат към междуправителствени споразумения и примера на ЦЕРН - Европейския център за ядрени изследвания - съвместен за 23 държави. Едно припомняне - световната мрежа е родена именно в ЦЕРН, най-напред като средство за обмяна на научна информация. Трябва ли да се насочим към подобни модели на научно сътрудничество в сферата на изкуствения интелект?

- Да оставим разработването на изкуствения интелект на големите търговски компании е опасно. Причината са по-рано споменатите проблеми и липсата на прозрачност при разработките. Ако ЦЕРН е позитивен пример, то е защото научните му разработки са в обща полза, предвид правителственото финансиране, а не в такава на голяма компания. Това е ценна възможност и в полето на изкуствения интелект.

В момента в Съединените щати се работи по създаването на институти за AI-разработки, които се финансират от Националната научна фондация. Това е държавна институция. Има такива проекти и в Европа, а междуправителствен модел като този на ЦЕРН ще позволи на учени извън големите компании да разработват, изследват и разберат по-добре изкуствения интелект, но при прозрачност на научната им работа. Това дава и по-добра възможност за справянето със заплахи като разпространяването на дезинформация чрез изкуствен интелект.

- На бъдещето оставяме въпроса как работата на такива центрове с публично финансиране, образно казано, ще съжителства с тази на търговските компании. В настоящето сме впечатлени от човешки звучащите отговори на ChatGPT. Но на кои други приложения на генеративния изкуствен интелект следва да обърнем най-голямо внимание?

Освен върху човешки език, тези системи се тренират на компютърен код и са много успешни в генерирането на код по заявка. Мога да поискам на английски от голям езиков модел да създаде определена компютърна програма и той ще ми даде програмен код, който често е много добър. Това е важно за цялата софтуерна индустрия. От определена гледна точка, тези системи показват по-добри възможности в програмирането, отколкото в човешката комуникация.

Много скоро ще видим сливане на езиковите модели и тези, които генерират изображения и видео. Такива мултимодални генеративни системи ще могат например да изгледат видеоклип и да задават въпроси по съдържанието или пък да го обобщят. Ще могат да опишат някакво изображение на незрящи хора. И в следващите години ще има голям интерес към тези мултимодални системи, които съчетават възможността за езиково общуване с разбирането на аудио и видео съдържание.

По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Израелски военни машини близо до граничната ограда с ивицата Газа, на неразкрито място, 9 май 2024 г.

Продължават сраженията в Газа въпреки разпореждането на Международния съд на ООН

Продължават израелските атаки в Ивицата Газа, включително в граничния град Рафах, въпреки разпореждането на Международния съд на ООН, изискващо Израел незабавно да прекрати офанзивата си.  Съдът на ООН: Израел незабавно да прекрати офанзивата си в Рафах Израел не е провеждал и няма да провежда операции в района на Рафах, които..

публикувано на 25.05.24 в 15:28

Столтенберг призова страните, дали оръжие на Украйна, да ѝ позволят да го ползва по цели в Русия

Генералният секретар на НАТО Йенс Столтенберг призова страните, които са предоставили на Украйна оръжие, да ѝ позволят да го използва, за да атакува цели на руска територия.  В интервю за Economist Столтенберг заяви, че сега, когато се водят боеве в района на Харков, близо до границата, забраната на Украйна да използва тези оръжия срещу..

публикувано на 25.05.24 в 15:06

Боледуват боровите дървета на площ от 250 декара в парк "Хисарлъка"

Борът на около 250 декара по парк "Хисарлъка" над Кюстендил боледува и съхне. Това е установила експертна група от Общината. Десетки дървета са с кафяв цвят, а вече има и изсъхнали. До дни ще се реши кои да бъдат отрязани. Засегнатите дървета се виждат от целия град и притесняват кюстендилци и туристите.  Лесопарк "Хисарлъка" е на площ от..

публикувано на 25.05.24 в 14:48
Румен Радев

Радев: България ще продължи да бъде надежден доставчик на енергийни ресурси за Унгария

България ще продължи да бъде надежден доставчик на енергийни ресурси за Унгария, заяви президентът Румен Радев след разговор с унгарския си колега Тамаш Шуйок в Будапеща. Енергийната свързаност със съседите и изграждането на газовите връзки с Гърция и Сърбия работи в полза и на Унгария, подчерта Радев. "Българската инициатива "Solidarity..

публикувано на 25.05.24 в 14:40

Над 930 сигнала за изчезнали деца у нас в последните 12 години

250 000 деца изчезват годишно в Европейския Съюз. Това сочи проучване, публикувано от ЕК през 2013 г. Това се равнява на изчезването на едно дете на всеки две минути. Над 85% от изчезналите са избягали от дома си или от институцията, в която са настанени. Всяка година на 25 май светът отбелязва Международния ден на изчезналите деца, посветен..

публикувано на 25.05.24 в 14:03
Киър Стармър

Британските лейбъристи искат да дадат възможност на 16 и 17-годишните да гласуват

Британските лейбъристи искат да дадат възможност на 16 и 17-годишните да имат право на глас в общи избори още през първата си година на управление, ако спечелят изборите на 4 юли, заяви техният лидер Киър Стармър в началото на предизборната си кампания.  Лейбъристката партия проучва отблизо как Шотландия и Уелс намалиха възрастта за..

публикувано на 25.05.24 в 13:33

СЗО: Тактиките на тютюневата и никотиновата индустрия пристрастяват младежите за цял живот

Тактиките на тютюневата и никотиновата индустрия пристрастяват младежите за цял живот, а в много държави броят на младите хора, които използват електронни цигари, надвишава броя на възрастните пушачи. Това се посочва в доклад на СЗО и глобалната организация „СТОП“, която следи дейностите на тютюневата промишленост. Документът показва как..

публикувано на 25.05.24 в 13:23