Q:
Как инженерите могат да използват увеличаване на градиентите за подобряване на системите за машинно обучение?
A:Подобно на други видове стимулиране, увеличаването с градиент се стреми да превърне множество слаби учащи се в един силен обучаем, в един вид дигитален "краудсорсинг" на потенциал за обучение. Друг начин, който обяснява увеличаването на градиента, е, че инженерите добавят променливи, за да прецизират неясното уравнение, за да получат по-точни резултати.
Увеличаването на градиента също се описва като "итеративен" подход, като повторенията евентуално се характеризират като добавяне на отделни слаби учащи се към един силен модел на обучаващ се.
Безплатно изтегляне: Машинното обучение и защо има значение |
Ето едно завладяващо описание за това как да погледнете тип изпълнение за увеличаване на градиента, което ще подобри резултатите от машинното обучение:
Системните администратори първо създадоха набор от слаби учащи се. Мислете за тях, например, за масив от АФ субекти, всеки седял около виртуална таблица и работи върху проблем, например класификация на двоични изображения.
В горния пример инженерите първо ще претеглят всеки слаб ученик, по възможност произволно, присвоявайки ниво на влияние на A, B, C и т.н.
След това програмата ще изпълни зададен набор от тренировъчни изображения. След това, като се имат предвид резултатите, тя ще претегля масива от слаби учащи се. Ако A предполага, че е много по-добър от B и C, влиянието на A ще бъде съответно повишено.
В това опростено описание на подобряване на алгоритъма за подсилване е сравнително лесно да се види как по-сложният подход ще даде по-добри резултати. Слабите учащи се „мислят заедно“ и от своя страна оптимизират проблем с ML.
В резултат на това инженерите могат да използват "ансамбловия" подход за увеличаване на градиента в почти всеки вид ML проект, от разпознаване на изображение до класификация на препоръките на потребителя или анализ на естествен език. По същество това е подходът на „отборен дух“ към ML и този, който привлича много внимание от някои мощни играчи.
По-специално градиентното усилване често работи с различна функция на загуба.
В друг модел, използван за обяснение на увеличаване на градиента, друга функция на този вид усилване е да може да изолира класификации или променливи, които в по-голяма картина са само шум. Чрез разделяне на регресионното дърво или структурата на всяка променлива в областта на един слаб ученик, инженерите могат да създадат модели, които по-точно да "звучат" сигнализатори на шума. С други думи, означаващият, обхванат от нещастния слаб ученик, ще бъде маргинализиран, тъй като този слаб ученик се претегля надолу и ще му се дава по-малко влияние.