План на курса
ДЕН 1 - ИЗКУСТВЕНИ НЕВРОННИ МРЕЖИ
Въведение и структура на ANN.
- Bioлогически неврони и изкуствени неврони.
- Модел на ANN.
- Функции за активиране, използвани в ANN.
- Типични класове мрежови архитектури.
Mathematical Основи и механизми за обучение.
- Повторно посещение на векторна и матрична алгебра.
- Концепции за пространство на състоянието.
- Концепции за оптимизация.
- Обучение за коригиране на грешки.
- Учене, базирано на паметта.
- Хебистко обучение.
- Състезателно обучение.
Еднослойни перцептрони.
- Структура и обучение на перцептрони.
- Класификатор на модели - въведение и класификатори на Бейс.
- Перцептрон като класификатор на модели.
- Перцептронна конвергенция.
- Ограничения на перцептроните.
Предварителна ANN.
- Структури на многослойни мрежи с предварителна връзка.
- Алгоритъм за обратно разпространение.
- Обратно разпространение - обучение и конвергенция.
- Функционална апроксимация с обратно разпространение.
- Практически и дизайнерски въпроси на обучението с обратно разпространение.
Радиални базисни функционални мрежи.
- Разделимост на шаблона и интерполация.
- Теория за регулиране.
- Регулиране и RBF мрежи.
- RBF мрежово проектиране и обучение.
- Апроксимационни свойства на RBF.
Конкурентно обучение и самоорганизираща се ANN.
- Общи процедури за групиране.
- Обучаващо векторно квантуване (LVQ).
- Алгоритми и архитектури за конкурентно обучение.
- Самоорганизиращи се карти с функции.
- Свойства на картите на характеристиките.
Размит Neural Networks.
- Невро-размити системи.
- Предистория на размитите множества и логиката.
- Дизайн на размити стъбла.
- Проектиране на размити ANN.
Приложения
- Ще бъдат обсъдени няколко примера за приложения на невронни мрежи, техните предимства и проблеми.
ДЕН -2 МАШИННО ОБУЧЕНИЕ
- PAC Learning Framework
- Гаранции за краен набор от хипотези – последователен случай
- Гаранции за крайно множество от хипотези – непоследователен случай
- Общи положения
- Детерминистично cv. Стохастични сценарии
- Шум от грешка на Бейс
- Грешки в оценката и приближението
- Избор на модел
- Сложност на Radmeacher и VC – измерение
- Компромис на отклонение – дисперсия
- Регулиране
- Прекомерно прилягане
- Валидиране
- Поддържащи векторни машини
- Кригинг (регресия на процеса на Гаус)
- PCA и PCA на ядрото
- Карти за самоорганизация (SOM)
- Индуцирано от ядрото векторно пространство
- Mercer Kernels и Kernel - индуцирани показатели за сходство
- Reinforcement Learning
ДЕН 3 - ДЪЛБОКО ОБУЧАВАНЕ
Това ще се преподава във връзка с темите, обхванати в Ден 1 и Ден 2
- Логистична и Softmax регресия
- Разредени автоенкодери
- Векторизация, PCA и избелване
- Самообучаващо се обучение
- Дълбоки мрежи
- Линейни декодери
- Конволюция и обединяване
- Разредено кодиране
- Независим анализ на компонентите
- Каноничен корелационен анализ
- Демонстрации и приложения
Изисквания
Goот разбиране на математиката.
Goот разбиране на основни статистики.
Основните умения по програмиране не са задължителни, но се препоръчват.
Oтзиви от потребители (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Курс - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.