План на курса

Част 1 – Deep Learning и DNN концепции


Въведение AI, Machine Learning и Deep Learning

  • История, основни концепции и обичайни приложения на изкуствения интелект далеч от фантазиите, носени от тази област

  • Колективен разум: агрегиране на знания, споделяни от много виртуални агенти

  • Генетични алгоритми: за развитие на популация от виртуални агенти чрез селекция

  • Обичайна обучаваща се машина: определение.

  • Видове задачи: контролирано обучение, обучение без надзор, обучение за затвърждаване

  • Видове действия: класификация, регресия, групиране, оценка на плътността, намаляване на размерността

  • Примери за Machine Learning алгоритми: Линейна регресия, Наивен Бейс, Случайно дърво

  • Машинно обучение VS Deep Learning: проблеми, върху които Machine Learning остава Днес състоянието на техниката (Random Forests & XGBoosts)

Основни понятия за невронна мрежа (Приложение: многослоен перцептрон)

  • Напомняне на математически основи.

  • Дефиниция на мрежа от неврони: класическа архитектура, активиране и

  • Претегляне на предишни активации, дълбочина на мрежата

  • Дефиниция на обучението на мрежа от неврони: функции на цената, обратно разпространение, стохастичен градиентен низход, максимална вероятност.

  • Моделиране на невронна мрежа: моделиране на входни и изходни данни според вида на проблема (регресия, класификация ...). Проклятие на размерността.

  • Разлика между многофункционални данни и сигнал. Избор на разходна функция според данните.

  • Апроксимация на функция чрез мрежа от неврони: представяне и примери

  • Апроксимация на разпределение чрез мрежа от неврони: представяне и примери

  • Увеличаване на данни: как да балансирате набор от данни

  • Обобщаване на резултатите от мрежа от неврони.

  • Инициализация и регуляризация на невронна мрежа: L1 / L2 регуляризация, пакетна нормализация

  • Алгоритми за оптимизация и конвергенция

Стандартни ML / DL инструменти

Планира се проста презентация с предимства, недостатъци, позиция в екосистемата и използване.

  • Инструменти за управление на данни: Apache Spark, Apache Hadoop Инструменти

  • Machine Learning: Numpy, Scipy, Sci-kit

  • DL рамки на високо ниво: PyTorch, Keras, Lasagne

  • DL рамки на ниско ниво: Theano, Torch, Caffe, Tensorflow

Конволюционен Neural Networks (CNN).

  • Представяне на CNN: основни принципи и приложения

  • Основна работа на CNN: конволюционен слой, използване на ядро,

  • Подплата и крачка, генериране на карта на функции, обединяване на слоеве. Разширения 1D, 2D и 3D.

  • Представяне на различните архитектури на CNN, които внесоха най-съвременните класификации

  • Изображения: LeNet, VGG Networks, Network in Network, Inception, Resnet. Представяне на иновациите, предизвикани от всяка архитектура и техните по-глобални приложения (Convolution 1x1 или остатъчни връзки)

  • Използване на модел на внимание.

  • Приложение към общ случай на класификация (текст или изображение)

  • CNN за генериране: супер разделителна способност, сегментация от пиксел до пиксел. Представяне на

  • Основни стратегии за увеличаване на картите на характеристиките за генериране на изображения.

Повтарящ се Neural Networks (RNN).

  • Представяне на RNN: основни принципи и приложения.

  • Основна работа на RNN: скрито активиране, обратно разпространение във времето, разгъната версия.

  • Еволюция към Gated Recurrent Units (GRU) и LSTM (Long Short Term Memory).

  • Представяне на различните състояния и еволюциите, донесени от тези архитектури

  • Проблеми с конвергенция и изчезващ градиент

  • Класически архитектури: Прогноза за времеви серии, класификация ...

  • RNN Encoder Архитектура тип декодер. Използване на модел на внимание.

  • NLP приложения: кодиране на думи / знаци, превод.

  • Видео приложения: предвиждане на следващото генерирано изображение на видео поредица.


Генерационни модели: Variational AutoEncoder (VAE) и Generative Adversarial Networks (GAN).

  • Представяне на генерационни модели, връзка със CNN

  • Автоматичен енкодер: намаляване на размерността и ограничено генериране

  • Вариационен автокодер: генерационен модел и апроксимация на разпределението на дадена. Определение и използване на латентно пространство. Трик за препараметриране. Приложения и ограничения

  • Генеративни състезателни мрежи: Основи.

  • Двойна мрежова архитектура (генератор и дискриминатор) с алтернативно обучение, налични функции за разходи.

  • Конвергенция на GAN и срещани трудности.

  • Подобрена конвергенция: Wasserstein GAN, Began. Разстояние на преместване на Земята.

  • Приложения за генериране на изображения или снимки, генериране на текст, супер-резолюция.

Дълбоко Reinforcement Learning.

  • Представяне на обучение с подсилване: контрол на агент в определена среда

  • По състояние и възможни действия

  • Използване на невронна мрежа за апроксимиране на функцията на състоянието

  • Deep Q Learning: повторение на опита и приложение за управление на видео игра.

  • Оптимизиране на учебната политика. В съответствие с правилата и извън правилата. Архитектура на актьорския критик. A3C.

  • Приложения: управление на отделна видео игра или цифрова система.

Част 2 – Теано за Deep Learning

Основи на Theano

  • Въведение

  • Инсталиране и конфигуриране

Теано функции

  • входове, изходи, актуализации, дадености

Обучение и оптимизиране на невронна мрежа с помощта на Theano

  • Моделиране на невронни мрежи

  • Логистична регресия

  • Скрити слоеве

  • Обучение на мрежа

  • Изчисляване и класификация

  • Оптимизация

  • Загуба на регистрационен файл

Тестване на модела


Част 3 – DNN с помощта на Tensorflow

TensorFlow Основи

  • Създаване, инициализиране, запазване и възстановяване TensorFlow на променливи

  • Подаване, четене и предварително зареждане TensorFlow на данни

  • Как да използваме TensorFlow инфраструктура за обучение на модели в мащаб

  • Визуализиране и оценяване на модели с TensorBoard

TensorFlow Механика

  • Подгответе данните

  • Изтегляне

  • Входове и контейнери

  • Изградете GraphS

    • Извод

    • Загуба

    • обучение

  • Обучете модела

    • Графиката

    • Сесията

    • Влакова верига

  • Оценете модела

    • Изградете Eval Graph

    • Eval Output

Перцептронът

  • Функции за активиране

  • Алгоритъмът за обучение на персептрон

  • Двоична класификация с персептрон

  • Класифициране на документи с персептрон

  • Ограничения на перцептрона

От Perceptron до поддържащи векторни машини

  • Ядрата и трикът с ядрото

  • Максимална класификация на маржа и поддържащи вектори

Изкуствен Neural Networks

  • Граници на нелинейни решения

  • Изкуствени невронни мрежи с предварителна и обратна връзка

  • Многослойни перцептрони

  • Минимизиране на функцията на разходите

  • Разпространение напред

  • Обратно разпространение

  • Подобряване на начина, по който невронните мрежи учат

Конволюционен Neural Networks

  • Go ал

  • Архитектура на модела

  • Принципи

  • Организация на кода

  • Стартиране и обучение на модела

  • Оценяване на модел

Основни въведения, които трябва да бъдат дадени на модулите по-долу (Краткото въведение трябва да бъде предоставено въз основа на наличността на времето):

Tensorflow – Разширено използване

  • Нишки и опашки

  • Разпределен TensorFlow

  • Писане Documentation и споделяне на вашия модел

  • Персонализиране на четци на данни

  • Манипулиране на TensorFlow файлове с модели


TensorFlow Сервиране

  • Въведение

  • Урок за основно сервиране

  • Урок за разширено обслужване

  • Урок за начален модел на обслужване

Изисквания

Обучение по физика, математика и програмиране. Участие в дейности по обработка на изображения.

Делегатите трябва да имат предварително разбиране на концепциите за машинно обучение и трябва да са работили върху Python програмиране и библиотеки.

 35 Часа

Брой участници


Цена за участник

Oтзиви от потребители (5)

Предстоящи Курсове

Свързани Kатегории