Изкуственият интелект е мощен инструмент, който трябва да бъде регулиран. Това заяви пред БНР Петър Цанков. Той е част от екипа, създал инструмент, по който може да се тества дали в моделите се спазва регламента за изкуствения интелект, който беше приет в Европа. Той работи от близо месец. Системата е разработена от института INSAIT към СУ "Св. Климент Охридски", Швейцарския федерален университет и компанията LatticeFlow.
Наличието на алгоритми за проверка на съответствието с новото европейско законодателство е успокоило фирмите, които са били готови да не инвестират в ЕС заради новите регулации, посочи още Цанков.
"Има определен прозорец, в който компаниите трябва да докажат, че спазват регламента. Моделите трябва да бъдат по-сигурни, да бъдат справедливи и да не дискриминират. В регламента има зададени шест принципа. За всеки един от тях успяхме да извлечем какви са изискванията за системите, които след това интерпретирахме технически".
Алгоритъмът, който е създаден, е безплатен и публично достъпен, отбеляза експертът. Създателите му вече са тествали голяма част от съществуващите модели за ИИ на големите компании.
"Следващата стъпка е да се тренират моделите по начин, по който да бъдат по-етични, сигурни и справедливи.
Голяма част от компаниите, които създават ИИ, дори имат по-стриктни от зададените от законодателството принципи, които да следват".
Има голяма паника и страх, че тази регулация ще блокира иновациите, но това не е вярно, заяви Цанков.
"Регулация за ИИ трябва да има.
Ние показахме, че моделите, които съществуват и се пускат в момента, вече спазват голяма част от тези принципи".
В звеното към ЕК, което отговаря за ИИ, вече има работни групи, които взимат работата по инструмента за тестване на моделите на ИИ като отправна точка.
Цялото интервю може да чуете в звуковия файл.