Благодарим ви, че изпратихте вашето запитване! Един от членовете на нашия екип ще се свърже с вас скоро.
Благодарим ви, че направихте своята резервация! Един от членовете на нашия екип ще се свърже с вас скоро.
План на курса
1. Разбиране на класификацията с помощта на най-близките съседи
- Алгоритъмът kNN Изчисляване на разстояние Избор на подходящ k Подготовка на данни за използване с kNN Защо алгоритъмът kNN е мързелив?
2. Разбиране на наивния Бейс
- Основни понятия на байесовите методи Вероятност Съвместна вероятност Условна вероятност с теорема на Байс Наивният алгоритъм на Бейс Наивната класификация на Бейс Оценката на Лаплас Използване на числови характеристики с наивен Бейс
3. Разбиране на дърветата на решенията
- Разделяй и владей Алгоритъмът на дървото на решенията C5.0 Избор на най-доброто разделение Подрязване на дървото на решенията
4. Разбиране на правилата за класификация
- Разделете и завладейте Алгоритъмът за едно правило Алгоритъмът RIPPER Правила от дърветата на решенията
5. Разбиране на регресията
- Проста линейна регресия Обикновена оценка на най-малките квадрати Корелации Множествена линейна регресия
6. Разбиране на регресионните дървета и моделните дървета
- Добавяне на регресия към дървета
7. Разбиране на невронните мрежи
- От биологични до изкуствени неврони Функции за активиране Мрежова топология Броят на слоевете Посоката на движение на информацията Броят на възлите във всеки слой Обучение на невронни мрежи с обратно разпространение
8. Разбиране на опорните векторни машини
- Класификация с хиперравнини Намиране на максимална граница Случаят на линейно разделими данни Случаят на нелинейно разделими данни Използване на ядра за нелинейни пространства
9. Разбиране на правилата за асоцииране
- Алгоритъмът Apriori за изучаване на правило за асоцииране Измерване на интереса към правилото – подкрепа и увереност Изграждане на набор от правила с принципа Apriori
10. Разбиране на групирането
- Клъстеризирането като задача за машинно обучение Алгоритъмът на k-средствата за клъстериране Използване на разстояние за присвояване и актуализиране на клъстери Избор на подходящия брой клъстери
11. Измерване на ефективността за класификация
- Работа с данни за прогнозиране на класификацията По-внимателен поглед върху матриците на объркване Използване на матрици на объркване за измерване на производителността Отвъд точността – други мерки за производителност Капа статистиката Чувствителност и специфичност Прецизност и припомняне F-мярката Визуализиране на компромисите на производителността ROC криви Оценка на бъдещата производителност Методът на задържане Cross- валидиране Bootstrap вземане на проби
12. Настройка на стандартните модели за по-добра производителност
- Използване на каретка за автоматизирана настройка на параметри Създаване на прост настроен модел Персонализиране на процеса на настройка Подобряване на производителността на модела с мета-обучение Разбиране на ансамбли Bagging Boosting Случайни гори Обучение на произволни гори Оценяване на производителността на произволни гори
13. Deep Learning
- Три класа задълбочени автоенкодери с дълбоко обучение Предварително обучени дълбоки Neural Networks мрежи за дълбоко подреждане
14. Обсъждане на специфични области на приложение
21 Часа
Oтзиви от потребители (1)
Very flexible.