Eмисия новини
от 12.00 часа
Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Димитър Димитров: Фокусът трябва да е върху създаването на ИИ, който се учи от по-малко данни

| Интервю
Снимка: Pixabay

"Много важно е да се разбере, че генеративни модели като ChatGPT могат да си измислят информация и хората не трябва да им вярват. Когато произведат някаква информация, тя трябва да се проверява".

Това заяви пред БНР Димитър Димитров, разработчик и изследовател.

Той споделя, че често му се случва да използва ChatGPT, за да намира по-сложна информация:

"Често го използвам, за да търся някакъв особен код или математически теореми, които по принцип в Гугъл много трудно се търсят. ChatGPT обикновено успява да даде бърз отговор. Проблемът там обаче е, че той не е интелигентен по същия начин, по който ние го разбираме. Съответно едно от нещата, които той може да прави, е т.нар. халюцинация, което значи да си измисля информация".

ChatGPT е много полезен и в редактирането на текст, добави Димитров и изказа мнението си:

"За редактор на текст той наистина е на нивото на професионален човек".

Като значимо събитие в сферата на изкуствения интелект през изминаващата 2023 г. изследователят отличи:

"Достъпността на технологиите около генеративния изкуствен интелект като ChatGPT. Технологиите зад ChatGPT не са чак толкова нови, колкото хората си мислят. Научната работа, която стои зад тях, е от около 2018 г. В изследователските общности в последните 3-4 години се знаеше, че тези системи работят, но проблемът беше основно, че единствените хора, които можеха да ги тренират, са големите технологични компании. Най-голямата промяна в изкуствения интелект през 2023 г. е фактът, че големите компании започнаха да отварят тези модели по 2 начина. Има много повече модели, които нормалните хора могат да използват. Те са отворени и за изследователите. Това ни позволява ние да разберем как работят вътрешно и да ги направим по-сигурни за използване и по-добри в проблемите, които имат в момента".

Въпреки че ние създаваме този изкуствен интелект, не разбираме на 100% математически как работи вътрешно, отбеляза още Димитър Димитров в интервю за предаването "Събота 150".

"Това е т.нар. феномен на черната кутия. На практика ние тренираме алгоритъма да може да прави нещата, които може да прави. След като сме ги тренирали, дори да виждаме числата в компютъра, които произвеждат резултата, ние не ги разбираме. Това води до проблема, в който тези модели до голяма степен зависят от данните, които слагаш в тях. /…/ Контролът на данните и как данните се използват оптимално през алгоритмите в тези модели е начинът, по който трябва да ги контролираме".

Това, което според Димитров ще има най-голям ефект за в бъдеще, е ако фокусът е повече върху създаването на изкуствен интелект, който се учи от по-малко данни.

Цялото интервю чуйте в звуковия файл. 

По публикацията работи: Анастасия Крушева

БНР подкасти:

Новините на БНР – във Facebook, Instagram, Viber, YouTube и Telegram.


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!

Горещи теми

Войната в Украйна