Q:
Защо DARPA изследва "обясним ИИ"?
A:Като цяло, обясним изкуствен интелект се превръща в много известна част от авангардната работа в областта на научните данни. Помага да се ръководи човешкият контрол върху присъщата му нестабилна и динамична технология - обясним ИИ помага да отговорим на много от нашите колективни въпроси за това как ще работи изкуственият интелект.
За да разберем обясним ИИ, помага да се разбере как изглежда "редовен ИИ". Традиционно, когато AI започва да се оформя, типичният проект се състои от фантазия за нови възможности на софтуера, скрити в алгоритмите и обучителните набори и линеен код, това е вид „блокчейн“ за потребителите. Те знаят, че работи - просто не знаят как точно.
Това може да доведе до „проблеми с доверието“, при които потребителите могат да поставят под въпрос основата, на която дадена технология взема решения. Това е, към което трябва да се обърне обяснителният ИИ: Обяснимите ИИ проекти идват с допълнителна инфраструктура, която да покаже на крайните потребители намерението и структурата на ИИ - защо прави това, което прави.
В епоха, в която топ иноватори като Бил Гейтс и Илон Мъск изразяват притеснение за това как ще работи изкуственият интелект, обясним AI изглежда изключително привлекателно. Експертите твърдят, че добрият обясним ИИ може да помогне на крайните потребители да разберат защо технологиите правят това, което правят, увеличават доверието и също така увеличават лекотата на използване и използването на тези технологии.
По-конкретно, DARPA обяснява самостоятелно защо се интересува от новите проекти. Страница на DARPA показва, че Министерството на отбраната предвижда "порой" от приложения за изкуствен интелект и известно количество хаос в своето развитие.
„Непрекъснатият напредък обещава да създаде автономни системи, които ще възприемат, учат, решават и действат самостоятелно“, пише Дейвид Ганинг. „Въпреки това, ефективността на тези системи е ограничена от сегашната неспособност на машината да обясни своите решения и действия пред хората. … Обяснима AI - особено обяснимото машинно обучение - ще бъде от съществено значение, ако бъдещите бойци трябва да разберат, да се доверят по подходящ начин и да управляват ефективно ново поколение изкуствено интелигентни партньори на машината. "
Онлайн есето на Гунинг предполага, че обяснимите ИИ системи ще помогнат да „осигурят обосновката“ на технологиите, да покажат своите силни и слаби страни и да направят случаите на използване по-прозрачни. Графика на страницата показва как направеният набор от функции за изкуствен интелект от обучителни данни ще бъде допълнен от нещо, наречено обясним модел и обясним интерфейс, който ще помогне на потребителя да отговори на въпроси. По-нататък Ганинг предполага, че обяснима AI програма ще има две основни фокусни области - едната ще бъде пресяване на мултимедийни данни, за да се намери какво е полезно за потребителите, а вторият фокус ще бъде симулиране на процеси за вземане на решения за подкрепа на решенията.
DARPA се надява да предостави „инструментариум“, който може да помогне за разработването на бъдещи обясними ИИ системи.