Размер на шрифта
Българско национално радио © 2025 Всички права са запазени

Приближават ли ни AI-оръжията към Апокалипсиса?

| Интервю
Снимка: БТА

"Системи, които използват изкуствен интелект за установяване на военни мишени, се използват в Украйна и в Близкия изток, редица държави пристъпват към въоръжаване на армиите си с такива приложения. Това поражда въпроса доколко би било допустимо да се разреши на машините да взимат военни решения."

Това е един от аргументите на Бюлетина на ядрените учени - организация, създадена през 1945 година от Айнщайн и негови колеги от проекта "Манхатън" - да сверят миналата седмица с една секунда напред символичния Часовник на Страшния съд. Той отмерва вече само 89 секунди до полунощ, или до Апокалипсиса.

Препятствията пред всеунищожителен ядрен конфликт намаляват, климатичните промени имат все по-ясни и разрушителни последствия, заплахата от смъртоносни биологични зарази се увеличава, предупреждават още учените в Бюлетина.

Публично изтъкваните рискове от светкавичното технологично развитие в последните години най-често са свързани с разпространението на дезинформация и все още неясната перспектива скоро да произведем машини със собствен разум и воля. Такива засега няма, но компютърно опосредстваните човешки решения са достатъчно притеснителни. Особено ако изкуствен интелект бъде вграден в оръжейни системи.

Мишел Флорной, бивш високопоставен служител в министерството на отбраната на САЩ, описва в статия за "Форин Полиси" следната демонстрация от 2002 година. Малък безпилотен апарат, управляван от изкуствен интелект, е пуснат от войник във вражеска сграда. Изцяло разчитайки на сензорите си, машината прелита през стаите и праща план на постройката и точното местоположение на хората в нея, за да насочи изчакващия отряд.

От тази демонстрация са минали повече от 20 години, а технологиите насочват армиите по много нови начини.

Самата Флорной описва някои от вече внедрените от Пентагона възможности на изкуствения интелект.

"Най-напред имаме много умно взимане на решения за разпределение на ресурсите и преценка на краткотрайните и дълготрайни ефекти от определено решение за бюджета. Втори пример е работата с оперативни данни от оръжейните системи - използваме изкуствения интелект, за да разберем кога определена част от устройството може да спре да работи. Това оптимизира парите за поддръжка, премахва нуждата от излишна профилактика и едновременно с това предотвратява катастрофални повреди. Това вече ни спестява огромни средства.

Третият пример е изпреварващото разузнаване. Използваме изкуствения интелект, за да анализира големи количества данни и да разпознае поведенчески модели, в чието изследване да се задълбочим. Това означава, че виждаме признаците за предстоящо събитие. На практика такова събитие беше нахлуването в Украйна, друг пример са движенията на космически апарати на наши съперници. Системата дава повече време за реакция на взимащите решения. Тя не заменя човешката преценка, а я улеснява". 

И още - според Флорной, AI-системи вече могат да предвиждат поведението на вражески лидери или пък да подпомогнат сигурността на военните компютърни мрежи при кибератаки като пренасочат контрола над тях.

Както във всяка друга сфера на живота, компютърът е съветник и опосредства определени човешки действия. Но действията си остават човешки. Няма изглед към дистопичните картини на стрелящи роботи, поне засега.

Внедряването на изкуствения интелект във въоръжението е една от причините от Бюлетина на ядрените учени - организация, занимаваща се със заплахите за човешкото съществуване, символично да определят Апокалипсиса за секунда по-близък".

Тази седмица разговарях с един от авторите на тази оценка - д-р Хърбърт Лин от университета "Станфорд", който има десетилетен опит в изследването на връзката между киберпространството и отбраната. Разговорът ни съдържа доста въпроси без отговор и няколко констатации.

"В момента изкуствен интелект се използва в Газа, за да предлага мишени за военни нападения. Говорим за живи хора, които системата идентифицира като легитимна военна цел за израелските сили. Те използват големи бази данни, технологии за разпознаване на лица и други методи. Какви обаче са критериите, по които някой бива определен за мишена? Това, което също буди притеснение е дали човекът, който взима финалното решение, ще приеме сляпо предложението на машината, смятайки че то е правилно по подразбиране".

Миналата година журналистическо разследване, в което се включи и британският в. "Гардиън", стигна до информацията, че в Газа тази човешка оторизация отнема средно 20 секунди. Списание "Тайм" описва три приложения, използвани от израелската армия - едно от тях маркира сгради, в които е възможно да има присъствие на Хамас. Второто идентифицира членове на групировката, от командири до най-обикновени бойци. Третото проследява движението на вече набелязаните бъдещи жертви, като достигането на мястото, смятано за техен дом, е последното потвърждение за самоличността им. Следва удар, а на мястото е много вероятно да се намира и семейството на човека, набелязан за цел от машината.

Контрааргументът на израелската страна е, че разузнавателни данни за нечие местоположение се ползват във военни конфликти много преди този в Газа, както и че новите системи основават преценката си на много повече данни и потвърждения, отколкото са били нужни за военна бомбардировка в миналото. Но израелците не отричат, че човешката проверка на машинната преценка отнема 20 секунди. Удари по жилищни постройки, в които се намират членове на "Хамас," са най-голямата причина за огромните цивилни жертви в ивицата.

Жестокостта на описаната ситуация се предпоставя и от гъстотата на населението на малка площ там. При по-малки противоречия, изкуствен интелект се използва за набелязване на мишени и в Украйна. На разположение на силите на Киев са продуктите на американската компания "Палантир", чието лицево разпознаване използва данни от дронове, сателити, класифицирана информация и, разбира се, споделеното от всички нас в интернет. Освен това те помагат за засичането на маневри на руска военна техника.

Притеснителна е възможната следваща технологична стъпка:

"Използването на компютри за разпознаване на опасност вече е довело до това машината да предлага и определя мишени. Защо направо не й дадем да натисне спусъка?"

Хърб Лин изтъква, че автономното оръжие отдавна е технологично постижимо, но предвид възможните грешки при идентификацията подобна система ще е толкова ненадеждна, че наистина би убила прекалено много невинни хора.

"Това води до въпроса - кога една система ще е достатъчно добра, за да й се доверим за взимането и изпълняването на такова решение? И това вече е политически въпрос. Защото всъщност питаме колко невинни жертви са допустими за постигането на военна цел. И тук, за съжаление, има различни виждания".

В Бюлетина на ядрените учени, както споменахме, се занимават със заплахите за съществуването на човечеството. А тази, която е породила създаването му преди 70 години, инициирано от хора като Алберт Айнщайн и Робърт Опенхаймер, е атомната бомба. Днес е логично да се запитаме каква е възможността машини да управляват ядрения арсенал? 

"Доколкото знаем, това все още не се е случило в Западния свят. Т.е. - американските, британски и френски ядрени оръжия са под постоянен човешки контрол и няма компютърна система, която може да ги изстреля. Руснаците твърдят същото, но са описвали възможността главнокомандващият - президентът, да издаде следната заповед. Ако той бъде убит при нападение срещу страната, а военните или наследникът му не отменят заповедта своевременно, ядрено оръжие да бъде изстреляно от автоматизирана система. Целта е врагът да не може да предотврати руски ядрен отговор като обезглави командването. И те са разработили такава защита.

Смятаме ли това за автоматизирана система? Един ще ти каже - да, защото компютърът на практика взима решението за изстрелването. Друг ще ти каже - не, защото човек трябва да я включи. Оставям на вас да ми кажете дали в този случай компютър ще изстреля ядрено оръжие. В момента за такова изстрелване са нужни кодове за авторизация, които позволяват достъп до някакъв превключвател. Той изпраща електрически сигнал по някакво реле и почти със сигурност сигналът стига до компютър, който активира ракетата. Но ние няма да кажем, че компютърът извършва ядрена атака. Въпросът е колко отдалечен трябва да е човекът от решението, за да го наречем автоматизирано".

Хърб Лин продължава с въпросите - ако изкуствен интелект обработва данните от сателитните системи за ранно известяване при вражеско ракетно нападение, доколко е намесен във възможния отговор? Иначе д-р Лин не познава западни военни, според които е добра идея да дадеш ядрено оръжие на компютър.

По какъв начин Китай и Русия внедряват свои разработки на изкуствен интелект във въоръжението си също е въпрос без достатъчно ясен отговор. Западът се смята за лидер в тази сфера, но друга насока дадоха възможностите на китайския езиков модел "DeepSeek".

"Това в бизнеса се нарича "бързо последване". Те са ползвали западни чипове, копирали са определен метод и постигат добри резултати за по-малко пари. Не съм чул "DeepSeek" да има по-добри възможности от западните езикови модели, просто постигането на тези възможности е било по-евтино. Сега и ние можем да постигаме също толкова добри резултати за по-малко пари. Всяка технология следва този път на развитие, първоначално е скъпа, после става по-достъпна".

Казусът "DeepSeek" ни насочва към най-обоснованите притеснения от развитието на изкуствения интелект - нарастващите възможности на езикови модели и други приложения, които лесно създават заблуждаващо съдържание и също толкова лесно спомагат за светкавичното му разпространение. И тук следва въпросът за регулациите.

Европейският съюз се опита вземе водещата роля в това поле и миналата година представи общ закон за изкуствения интелект, който наложи маркиране на дигитално генерирано съдържание. Предишният американски президент Джо Байдън също се опита да наложи някакви правила. Нищо от това до момента не е спряло разпространението на компютърно генерирани фалшиви новини, снимки и видеоклипове. Регулациите не могат да тичат заедно с развитието.

Каква е перспективата на отговорните за този прогрес? Обяснява Дженсън Хуанг - основател и изпълнителен директор на "NVidia" - компанията, чийто чипове имат основна роля в напредъка на езиковите модели.

"Поставянето на предпазни прегради изисква технология, фината настройка изисква технология, ценностното възпитание на изкуствения интелект изисква технология, безопасността изисква технология. Причината самолетните полети да са толкова безопасни е, че автопилотът се съобразява с много на брой системи за сигурност, отчитащи различните опасности. По отношение на изкуствения интелект аз имам нужда такива системи да бъдат възможно най-бързо разработени. Нужно ни е много по-бързо развитие на технологиите за киберсигурност, които да обезопасяват изкуствения интелект и да ни предпазват от възможностите му".   

И така - не ни регулирайте, а ни позволете да се развиваме, за да изработим и предпазните механизми. Какво обаче ще се случи през това време?

Тази седмица медиите установиха, че "Алфабет", компанията-майка на "Гугъл", която също инвестира милиарди в AI-разработки, е премахнала от принципите си те да не бъдат използвани за нараняване на човешки същества.

Започнахме с бившия заместник-ръководител на Пентагона Мишел Форной и статията й за "Форин полиси". Тя съдържа важен аргумент.

"Спирането на американското развитие в сферата на изкуствения интелект е невъзможно - математическите основи са универсални, човешките умения за създаването на AI-модели са широко търсени и се развиват. Двигателите на това развитие - както човешката съзидателност, така и търговските ползи - са много мощни. Да се опитваме да спрем прогреса ще е грешка. Китай работи здраво, за да изпревари Съединените щати в изкуствения интелект, особено във военните му приложения. Ако успее, Китай ще има много по-мощна армия, имаща потенциала да увеличи честотата и ефектът от нейните операции, отвъд американските възможности за противодействие".

В незначителния миманс на геополитически противопоставяния и икономически интереси стоят въпросите без отговор на Хърб Лин. Той изтъква, че на всеки американски военен кораб има система за близка отбрана, при чийто автоматичен режим компютърът разпознава приближаващи вражески ракети и ги елиминира. Натиска спусъка и никой не смята това за проблем. За финал ето още една дилема:

"Знам, че към мен приближава вражеска танкова група, но не знам кога точно ще представлява пряка заплаха. Затова пускам във въздуха оръжия, настроени да разпознаят приближаващи танкове и да започнат да стрелят по тях. Това може да се приеме за автоматизирана система, но аз ще взема решението да я включа. Ако злоупотребя с нея и я активирам срещу цивилни мишени, то аз ще бъда съден за военно престъпление. Но добре ли е, че изобщо имам технологичната възможност да го направя?"
По публикацията работи: Мария Сивкова - Илиева

БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Ружа Игнатова със съоснователя на ОneCoin Карл Себастиян Грийнууд.

Жертви на OneCoin търсят начин да изправят България пред Съда на ЕС

Жертвите на криптопирамидата OneCoin търсят начин да изправят България пред Съда на ЕС в Люксембург. Това сподели адвокът им Джонатан Леви в  интервю за "Дойче веле" . България е в пряко нарушение евродирективата за обезщетението на жертвите на престъпления, твърди той: "Ако България не предприеме действия, ще поискаме да бъде заведено дело за..

публикувано на 08.02.25 в 14:33
Посрещане на затворници, които излизат от автобус на Червения кръст, след като са били освободени от израелски затвор, 8 февруари 2025 г.

Израел започна да освобождава палестински затворници

Израел започна да освобождава палестински затворници в замяна на пускането на трима заложници от "Хамас" днес, предаде БТА. Това е поредната такава размяна в съответствие със споразумението за прекратяване на огъня в ивицата Газа, което влезе в сила миналия месец. Репортери на Асошиейтед прес са видяли как автобус, в който бяха качени..

публикувано на 08.02.25 в 14:07

"Новини с добавена стойност" с г-н Балев: 18 милиарда теменужки в Дупката

Бойко Борисов:  …Ако я нямаше дупката в бюджета, найш колко лесно щеше да се е приел бюджетът!... Дупката я знаете - 18 милиарда!” *** Тези от нас, които ни е брулил повечко животът, имахме късмета да натрупаме лирически опит през романтичното десетилетие на 90-те години. И живелите по онуй време сигурно си спомнят колко беден беше..

публикувано на 08.02.25 в 13:55
МВР - Монтана

Полицията в Монтана е задържала трима души за притежание на наркотици

19-годишен жител на Монтана е задържан в ареста на местното районно управление за притежание на наркотици. Още двама са прекарали нощта зад решетките, след като в колата им униформените открили канабис. След получена оперативна информация за притежаване на наркотици вчера към 17 часа полицаите спрели за проверка лека кола на кръстовището на..

публикувано на 08.02.25 в 13:54

Агенцията по безопасност на храните затвори магазин във Враца

Областната дирекция по безопасност на храните - Враца преустанови дейността на магазин в града, извършвал производствена дейност без регистрация. Проверката е извършена след подаден сигнал от граждани, съобщиха от Българската агенция по безопасността на храните (БАБХ).  В резултат на проверката са възбранени и насочени за унищожаване общо 630..

публикувано на 08.02.25 в 13:04
Дейвид Лами

Лами: Плановете за съкращения в бюджета за международна помощ на САЩ може да са голяма стратегическа грешка

Плановете на Доналд Тръмп да направи драстични съкращения в бюджета за международна помощ на Съединените щати може да са "голяма стратегическа грешка", която позволява на Китай да се намеси и да засили глобалното си влияние, коментира британският външен министър Дейвид Лами в интервю за "Гардиън". Дейвид Лами предупреди, че собственият опит на..

публикувано на 08.02.25 в 12:55

Трима израелски заложници бяха освободени от "Хамас"

Пред много камери и след като бяха интервюирани от маскиран представител на групировката, заложниците бяха предадени на Червения кръст, в селището Дир ал Бадах, в Северна Газа. Случващото се там беше наблюдавано на живо и аплодирано от близки на заложниците и още стотици израелци събрали се в центъра на Тел Авив. На събитието в Газа освен..

публикувано на 08.02.25 в 12:48