Update Required
To play the media you will need to either update your browser to a recent version or update your Flash plugin.
От 2 август 2025 г. в Европейския съюз влязоха в сила нови правила за разработване и използване на модели с изкуствен интелект с общо предназначение (ИИОП) – технологии, които стоят в основата на системи като ChatGPT, Gemini, Copilot и други генеративни AI решения.
“На първо място е добре да обясним какво всъщност се крие зад това словосъчетание “модели с ИИ с общо предназначение”, тъй като материята е с подчертано технически характер.
Тези “модели с общо предназначение” можем да ги оприличим на мозъка, който захранва популярните чатбот системи ChatGPT, Gemini, Copilot”, казва Иво Емануилов - ръководител на Лабораторията за експериментално регулиране и цифрови политики (GATE ERPL) на институт GATE.
Той е участник и в работните групи по създаване на Кодекса за поведение в областта на изкуствения интелект, който беше представен от ЕК през юли.
Най-общо казано това са едни математически модели, които са създадени чрез използване на много данни, голяма част от които са публично достъпни. Тези данни са всякакви текстове, изображения, видео клипове, всякакви видове аудио съдържание, включително записи на интервюта като нашето днес, от които се извлича информация и зависимости между определени обекти. Например има информация как изглежда едно типично изречение, или пък които си подхождат или са синоними помежду си.
Тези модели често ги определяме като “швейцарско ножче” - казва той и допълва, че това е така, защото могат да се адаптират за много различни задачи. От разговори за времето, през писане на код, до създаване на маркетинг материали например.
Когато масово се използват за създаване на системи, те пораждат рискове. Ако имаме един модел, който по определени данни категоризира определена малцинствена група като по-склонна да извърши дадено престъпление.
Ако такъв модел се използва от държавата за административни услуги или от бизнес организация за подбор на персонал, това всичко създава реални рискове от дискриминация.
Затова новите правила, които се прилагат от 2 август, имат за цел да се справят с такива рискове. Тези мерки вече изискват от доставчиците на такива модели, да разкрият информация, за начина, по който са се развили тези модели, какви са данните и откъде произхождат, какви са рисковете, които самият доставчик е идентифицирал предварително.
Особено важно е задължението на тези доставчици да предоставят ясна и достъпна информация на организациите, които използват тези модели в свои собствени продукти и услуги, било от страна на държавата, било от страна на бизнеса.
Какво променят новите правила, гарантират ли и как етичното използване на изкуствения интелект – чуйте в разговора на Катя Василева с Иво Емануилов в звуковия файл.