Алгоритмите са групирани въз основа на тяхната прилика по отношение на тяхната функция
1) Алгоритми за класификация
Картографира входните данни към различни класове (категории). На всеки клас се присвояват етикети. Класификацията може да се извърши както върху структурирани, така и върху неструктурирани данни.
- „Бернули наивен Байес“
- „Дърво на решенията“
- „Гаус наивен Байес“
- K Най-близки съседи (KNN)
- Линеен дискриминантен анализ (LDA)
- Линеен опорен векторен класификатор (SVC)
- Логистична регресия (известен още като logit, MaxEnt) - става класификатор чрез добавяне на правило за вземане на решение
- „Мултиномиален наивен Бейс“
- Квадратичен дискриминантен анализ (QDA)
- Ридж класификатор
- Стохастичен градиентен класификатор (SGD)
- Машина за опорни вектори (SVM) - както класификация, така и регресия
2) Алгоритми за регресионен анализ
Оценява връзките между зависима променлива (известна още като „целева променлива“ или „променлива на резултата“) и една или повече независими променливи (известни още като „предиктори“, „ковариати“ или „ функции').
- Байесова линейна регресия
- Еластична нетна регресия
- Регресия с ласо (най-малко абсолютно свиване и оператор за избор)
- Регресия с най-малък ъгъл (LAR)
- "Линейна регресия"
- "Логистична регресия"
- Полиномиална регресия
- Регресия на Ридж (Тихонов) (Линейни най-малки квадрати с L2)
- Стохастична градиентна регресия (SGD)
- Support Vector Regression - едновременно регресия и класификация
3) Невронни мрежи
Вдъхновени от биологичните невронни мрежи, алгоритмите разпознават връзки в набор от данни и се адаптират към променящия се вход.
- "Машина на Болцман"
- Ограничена машина на Болцман (RBM)
- Конволюционна невронна мрежа (CNN)
- Мрежа на дълбоките вярвания (DBN)
- „Генеративни състезателни мрежи (GANs)“
- Учене на векторно квантуване (LVQ)
- Многослоен перцептрон (MLP)
- перцептрон
- Повтаряща се невронна мрежа (RNN)
- Ограничена машина на Болцман (RBM)
- „Сложен автоенкодер“
4) Ансамбълни методи
Техника за комбиниране на множество алгоритми за машинно обучение в един модел за подобряване на точността на прогнозиране.
- Адаптивно усилване (AdaBoost)
- Bootstrap Aggregation (Bagging)
- „Подсилено дърво на решенията (BDT)“
- Повишаване на категория (CatBoost)
- „Изключително рандомизирани дървета“
- Gradient Boosted Decision Trees (GBDT) - Усилване на градиентното дърво
- „Регресионни дървета с подсилен градиент (GBRT)“
- „Случайна гора“
- Натрупано обобщение (натрупване)
- Класификатор за гласуване
- XGBoost (изключително градиентно усилване)
5) Регулиране
Техника за добавяне на наказание към функцията за грешка/загуба за решаване на проблема с пренастройването. Наказанието е сумата от абсолютните стойности на теглата/коефициентите.
- Еластична мрежова регулация
- LASSO Регулиране (най-малко абсолютно свиване и оператор за избор) - L1
- Регуларизация на хребета - L2
6) Групиране
Техника, която включва групиране на точки от данни (немаркирани) въз основа на техните свойства и/или характеристики.
- DBSCAN (базиран на плътност)
- „Максимизиране на очакванията“
- Размити C-средни (FCM)
- „Размити K-режими“
- „Модел на смес на Гаус (GMM)“
- „K-означава групиране“
- „Клъстериране на K-медианите“
- K-Modes Clustering
- „Групиране на средно изместване“
- „Спектрално групиране“
7) Намаляване на размерността
Трансформира набор от данни с големи размери (броят характеристики е голям) в данни с по-малки размери.
- Автоматичен енкодер
- Елиминиране на обратна функция
- Избор на функция напред
- Анализ на независими компоненти (ICA)
- изокарта
- „Латентно разпределение на Дирихле (LDA)“
- Локално линейно вграждане (LLE)
- Хеширане, чувствително към местоположение (LSH)
- Многоизмерно мащабиране (MDS)
- Частична регресия на най-малките квадрати (PLS)
- Анализ на основните компоненти (PCA)
- Регуларен дискриминантен анализ (RDA)
- t-разпределено стохастично вграждане на съсед (t-SNE)
Благодарим ви, че прочетохте! Моля 👏 и последвайте ме, ако сте харесали тази публикация, тъй като тя ме насърчава да пиша повече!