План на курса

ДЕН 1 - ИЗКУСТВЕНИ НЕВРОННИ МРЕЖИ

Въведение и структура на ANN.

  • Bioлогически неврони и изкуствени неврони.
  • Модел на ANN.
  • Функции за активиране, използвани в ANN.
  • Типични класове мрежови архитектури.

Mathematical Основи и механизми за обучение.

  • Повторно посещение на векторна и матрична алгебра.
  • Концепции за пространство на състоянието.
  • Концепции за оптимизация.
  • Обучение за коригиране на грешки.
  • Учене, базирано на паметта.
  • Хебистко обучение.
  • Състезателно обучение.

Еднослойни перцептрони.

  • Структура и обучение на перцептрони.
  • Класификатор на модели - въведение и класификатори на Бейс.
  • Перцептрон като класификатор на модели.
  • Перцептронна конвергенция.
  • Ограничения на перцептроните.

Предварителна ANN.

  • Структури на многослойни мрежи с предварителна връзка.
  • Алгоритъм за обратно разпространение.
  • Обратно разпространение - обучение и конвергенция.
  • Функционална апроксимация с обратно разпространение.
  • Практически и дизайнерски въпроси на обучението с обратно разпространение.

Радиални базисни функционални мрежи.

  • Разделимост на шаблона и интерполация.
  • Теория за регулиране.
  • Регулиране и RBF мрежи.
  • RBF мрежово проектиране и обучение.
  • Апроксимационни свойства на RBF.

Конкурентно обучение и самоорганизираща се ANN.

  • Общи процедури за групиране.
  • Обучаващо векторно квантуване (LVQ).
  • Алгоритми и архитектури за конкурентно обучение.
  • Самоорганизиращи се карти с функции.
  • Свойства на картите на характеристиките.

Размит Neural Networks.

  • Невро-размити системи.
  • Предистория на размитите множества и логиката.
  • Дизайн на размити стъбла.
  • Проектиране на размити ANN.

Приложения

  • Ще бъдат обсъдени няколко примера за приложения на невронни мрежи, техните предимства и проблеми.

ДЕН -2 МАШИННО ОБУЧЕНИЕ

  • PAC Learning Framework
    • Гаранции за краен набор от хипотези – последователен случай
    • Гаранции за крайно множество от хипотези – непоследователен случай
    • Общи положения
      • Детерминистично cv. Стохастични сценарии
      • Шум от грешка на Бейс
      • Грешки в оценката и приближението
      • Избор на модел
  • Сложност на Radmeacher и VC – измерение
  • Компромис на отклонение – дисперсия
  • Регулиране
  • Прекомерно прилягане
  • Валидиране
  • Поддържащи векторни машини
  • Кригинг (регресия на процеса на Гаус)
  • PCA и PCA на ядрото
  • Карти за самоорганизация (SOM)
  • Индуцирано от ядрото векторно пространство
    • Mercer Kernels и Kernel - индуцирани показатели за сходство
  • Reinforcement Learning

ДЕН 3 - ДЪЛБОКО ОБУЧАВАНЕ

Това ще се преподава във връзка с темите, обхванати в Ден 1 и Ден 2

  • Логистична и Softmax регресия
  • Разредени автоенкодери
  • Векторизация, PCA и избелване
  • Самообучаващо се обучение
  • Дълбоки мрежи
  • Линейни декодери
  • Конволюция и обединяване
  • Разредено кодиране
  • Независим анализ на компонентите
  • Каноничен корелационен анализ
  • Демонстрации и приложения

Изисквания

Goот разбиране на математиката.

Goот разбиране на основни статистики.

Основните умения по програмиране не са задължителни, но се препоръчват.

 21 Часа

Брой участници


Цена за участник

Oтзиви от потребители (2)

Предстоящи Курсове

Свързани Kатегории