План на курса
Част 1 – Deep Learning и DNN концепции
Въведение AI, Machine Learning и Deep Learning
История, основни концепции и обичайни приложения на изкуствения интелект далеч от фантазиите, носени от тази област
Колективен разум: агрегиране на знания, споделяни от много виртуални агенти
Генетични алгоритми: за развитие на популация от виртуални агенти чрез селекция
Обичайна обучаваща се машина: определение.
Видове задачи: контролирано обучение, обучение без надзор, обучение за затвърждаване
Видове действия: класификация, регресия, групиране, оценка на плътността, намаляване на размерността
Примери за Machine Learning алгоритми: Линейна регресия, Наивен Бейс, Случайно дърво
Машинно обучение VS Deep Learning: проблеми, върху които Machine Learning остава Днес състоянието на техниката (Random Forests & XGBoosts)
Основни понятия за невронна мрежа (Приложение: многослоен перцептрон)
Напомняне на математически основи.
Дефиниция на мрежа от неврони: класическа архитектура, активиране и
Претегляне на предишни активации, дълбочина на мрежата
Дефиниция на обучението на мрежа от неврони: функции на цената, обратно разпространение, стохастичен градиентен низход, максимална вероятност.
Моделиране на невронна мрежа: моделиране на входни и изходни данни според вида на проблема (регресия, класификация ...). Проклятие на размерността.
Разлика между многофункционални данни и сигнал. Избор на разходна функция според данните.
Апроксимация на функция чрез мрежа от неврони: представяне и примери
Апроксимация на разпределение чрез мрежа от неврони: представяне и примери
Увеличаване на данни: как да балансирате набор от данни
Обобщаване на резултатите от мрежа от неврони.
Инициализация и регуляризация на невронна мрежа: L1 / L2 регуляризация, пакетна нормализация
Алгоритми за оптимизация и конвергенция
Стандартни ML / DL инструменти
Планира се проста презентация с предимства, недостатъци, позиция в екосистемата и използване.
Инструменти за управление на данни: Apache Spark, Apache Hadoop Инструменти
Machine Learning: Numpy, Scipy, Sci-kit
DL рамки на високо ниво: PyTorch, Keras, Lasagne
DL рамки на ниско ниво: Theano, Torch, Caffe, Tensorflow
Конволюционен Neural Networks (CNN).
Представяне на CNN: основни принципи и приложения
Основна работа на CNN: конволюционен слой, използване на ядро,
Подплата и крачка, генериране на карта на функции, обединяване на слоеве. Разширения 1D, 2D и 3D.
Представяне на различните архитектури на CNN, които внесоха най-съвременните класификации
Изображения: LeNet, VGG Networks, Network in Network, Inception, Resnet. Представяне на иновациите, предизвикани от всяка архитектура и техните по-глобални приложения (Convolution 1x1 или остатъчни връзки)
Използване на модел на внимание.
Приложение към общ случай на класификация (текст или изображение)
CNN за генериране: супер разделителна способност, сегментация от пиксел до пиксел. Представяне на
Основни стратегии за увеличаване на картите на характеристиките за генериране на изображения.
Повтарящ се Neural Networks (RNN).
Представяне на RNN: основни принципи и приложения.
Основна работа на RNN: скрито активиране, обратно разпространение във времето, разгъната версия.
Еволюция към Gated Recurrent Units (GRU) и LSTM (Long Short Term Memory).
Представяне на различните състояния и еволюциите, донесени от тези архитектури
Проблеми с конвергенция и изчезващ градиент
Класически архитектури: Прогноза за времеви серии, класификация ...
RNN Encoder Архитектура тип декодер. Използване на модел на внимание.
NLP приложения: кодиране на думи / знаци, превод.
Видео приложения: предвиждане на следващото генерирано изображение на видео поредица.
Генерационни модели: Variational AutoEncoder (VAE) и Generative Adversarial Networks (GAN).
Представяне на генерационни модели, връзка със CNN
Автоматичен енкодер: намаляване на размерността и ограничено генериране
Вариационен автокодер: генерационен модел и апроксимация на разпределението на дадена. Определение и използване на латентно пространство. Трик за препараметриране. Приложения и ограничения
Генеративни състезателни мрежи: Основи.
Двойна мрежова архитектура (генератор и дискриминатор) с алтернативно обучение, налични функции за разходи.
Конвергенция на GAN и срещани трудности.
Подобрена конвергенция: Wasserstein GAN, Began. Разстояние на преместване на Земята.
Приложения за генериране на изображения или снимки, генериране на текст, супер-резолюция.
Дълбоко Reinforcement Learning.
Представяне на обучение с подсилване: контрол на агент в определена среда
По състояние и възможни действия
Използване на невронна мрежа за апроксимиране на функцията на състоянието
Deep Q Learning: повторение на опита и приложение за управление на видео игра.
Оптимизиране на учебната политика. В съответствие с правилата и извън правилата. Архитектура на актьорския критик. A3C.
Приложения: управление на отделна видео игра или цифрова система.
Част 2 – Теано за Deep Learning
Основи на Theano
Въведение
Инсталиране и конфигуриране
Теано функции
входове, изходи, актуализации, дадености
Обучение и оптимизиране на невронна мрежа с помощта на Theano
Моделиране на невронни мрежи
Логистична регресия
Скрити слоеве
Обучение на мрежа
Изчисляване и класификация
Оптимизация
Загуба на регистрационен файл
Тестване на модела
Част 3 – DNN с помощта на Tensorflow
TensorFlow Основи
Създаване, инициализиране, запазване и възстановяване TensorFlow на променливи
Подаване, четене и предварително зареждане TensorFlow на данни
Как да използваме TensorFlow инфраструктура за обучение на модели в мащаб
Визуализиране и оценяване на модели с TensorBoard
TensorFlow Механика
Подгответе данните
Изтегляне
Входове и контейнери
Изградете GraphS
Извод
Загуба
обучение
Обучете модела
Графиката
Сесията
Влакова верига
Оценете модела
Изградете Eval Graph
Eval Output
Перцептронът
Функции за активиране
Алгоритъмът за обучение на персептрон
Двоична класификация с персептрон
Класифициране на документи с персептрон
Ограничения на перцептрона
От Perceptron до поддържащи векторни машини
Ядрата и трикът с ядрото
Максимална класификация на маржа и поддържащи вектори
Изкуствен Neural Networks
Граници на нелинейни решения
Изкуствени невронни мрежи с предварителна и обратна връзка
Многослойни перцептрони
Минимизиране на функцията на разходите
Разпространение напред
Обратно разпространение
Подобряване на начина, по който невронните мрежи учат
Конволюционен Neural Networks
Go ал
Архитектура на модела
Принципи
Организация на кода
Стартиране и обучение на модела
Оценяване на модел
Основни въведения, които трябва да бъдат дадени на модулите по-долу (Краткото въведение трябва да бъде предоставено въз основа на наличността на времето):
Tensorflow – Разширено използване
Нишки и опашки
Разпределен TensorFlow
Писане Documentation и споделяне на вашия модел
Персонализиране на четци на данни
Манипулиране на TensorFlow файлове с модели
TensorFlow Сервиране
Въведение
Урок за основно сервиране
Урок за разширено обслужване
Урок за начален модел на обслужване
Изисквания
Обучение по физика, математика и програмиране. Участие в дейности по обработка на изображения.
Делегатите трябва да имат предварително разбиране на концепциите за машинно обучение и трябва да са работили върху Python програмиране и библиотеки.
Oтзиви от потребители (5)
Хънтър е невероятен, много ангажиращ, изключително информиран и представителен. Много добре направено.
Rick Johnson - Laramie County Community College
Курс - Artificial Intelligence (AI) Overview
Машинен превод
The trainer explained the content well and was engaging throughout. He stopped to ask questions and let us come to our own solutions in some practical sessions. He also tailored the course well for our needs.
Robert Baker
Курс - Deep Learning with TensorFlow 2.0
Tomasz really know the information well and the course was well paced.
Raju Krishnamurthy - Google
Курс - TensorFlow Extended (TFX)
Organization, adhering to the proposed agenda, the trainer's vast knowledge in this subject
Ali Kattan - TWPI
Курс - Natural Language Processing with TensorFlow
Very updated approach or CPI (tensor flow, era, learn) to do machine learning.