Q:
Как инженерите могат да използват увеличаване на градиентите за подобряване на системите за машинно обучение?
A:Подобно на други видове стимулиране, увеличаването с градиент се стреми да превърне множество слаби учащи се в един силен обучаем, в един вид дигитален "краудсорсинг" на потенциал за обучение. Друг начин, който обяснява увеличаването на градиента, е, че инженерите добавят променливи, за да прецизират неясното уравнение, за да получат по-точни резултати.
Увеличаването на градиента също се описва като "итеративен" подход, като повторенията евентуално се характеризират като добавяне на отделни слаби учащи се към един силен модел на обучаващ се.
| Безплатно изтегляне: Машинното обучение и защо има значение |
Ето едно завладяващо описание за това как да погледнете тип изпълнение за увеличаване на градиента, което ще подобри резултатите от машинното обучение:
Системните администратори първо създадоха набор от слаби учащи се. Мислете за тях, например, за масив от АФ субекти, всеки седял около виртуална таблица и работи върху проблем, например класификация на двоични изображения.
В горния пример инженерите първо ще претеглят всеки слаб ученик, по възможност произволно, присвоявайки ниво на влияние на A, B, C и т.н.
След това програмата ще изпълни зададен набор от тренировъчни изображения. След това, като се имат предвид резултатите, тя ще претегля масива от слаби учащи се. Ако A предполага, че е много по-добър от B и C, влиянието на A ще бъде съответно повишено.
В това опростено описание на подобряване на алгоритъма за подсилване е сравнително лесно да се види как по-сложният подход ще даде по-добри резултати. Слабите учащи се „мислят заедно“ и от своя страна оптимизират проблем с ML.
В резултат на това инженерите могат да използват "ансамбловия" подход за увеличаване на градиента в почти всеки вид ML проект, от разпознаване на изображение до класификация на препоръките на потребителя или анализ на естествен език. По същество това е подходът на „отборен дух“ към ML и този, който привлича много внимание от някои мощни играчи.
По-специално градиентното усилване често работи с различна функция на загуба.
В друг модел, използван за обяснение на увеличаване на градиента, друга функция на този вид усилване е да може да изолира класификации или променливи, които в по-голяма картина са само шум. Чрез разделяне на регресионното дърво или структурата на всяка променлива в областта на един слаб ученик, инженерите могат да създадат модели, които по-точно да "звучат" сигнализатори на шума. С други думи, означаващият, обхванат от нещастния слаб ученик, ще бъде маргинализиран, тъй като този слаб ученик се претегля надолу и ще му се дава по-малко влияние.





