Онлайн или на място, водени от инструктори на живо курсове за обучение на Apache Spark демонстрират чрез практическа практика как Spark се вписва в екосистемата на Big Data и как да използвате Spark за анализ на данни. Обучението на Apache Spark се предлага като „онлайн обучение на живо“ или „обучение на живо на място“. Онлайн обучението на живо (известно още като „дистанционно обучение на живо“) се извършва чрез интерактивен отдалечен работен плот . Обучението на живо на място може да се проведе локално в помещенията на клиента в Пловдив или в корпоративните центрове за обучение на NobleProg в Пловдив. NobleProg -- Вашият местен доставчик на обучение
Делови център Пловдив
Хан Кубрат ул. 1, Пловдив, България, 4017
Този е най-модерният бизнес център в града, с всички необходими функционалности, докато е разположен в зелена част на града.
Намира се на около 20 минути с автобус от централната жп гара, както и от центъра на града.
Този курс с инструкторско ръководство, провеждан в онлайн или на място, е предназначен за данни научни специалисти и инженери на средно ниво, които искат да използват Google Colab и Apache Spark за обработка и анализ на големи данни.
До края на този курс участниците ще бъдат способни да:
Настроят среда за големи данни с Google Colab и Spark.
Обработват и анализират големи набори данни ефективно с Apache Spark.
Визуализират големи данни в съвместна среда.
Интегрират Apache Spark с инструменти базирани на облак.
Stratio е платформа, насочена към данни, която интегрира големи данни, ИИ и управление в едно решение. Нейните модули Rocket и Intelligence подпомагат бързото разглеждане на данни, трансформацията и напредналата аналитика в предприемачски среди.
Това обучение под ръководството на инструктор (онлайн или на място) е насочено към средно ниво специалисти по данни, които искат да използват модулите Rocket и Intelligence в Stratio ефективно с PySpark, като фокусират върху циклични структури, потребителски дефинирани функции (UDFs) и напреднала логика на данни.
По края на обучението участниците ще могат да:
Навигирам и работя в платформата Stratio, използвайки модулите Rocket и Intelligence.
Применявам PySpark за ингестинг, трансформация и анализ на данни.
Използвам цикли и условна логика за контрол на рабочите процеси с данни и задачите по извличане на характеристики (feature engineering).
Създавам и управлявам потребителски дефинирани функции (UDFs) за повторно използване на операции с данни в PySpark.
Формат на курса
Интерактивно предаване и дискусия.
Много упражнения и практика.
Работа в реална лабораторна среда.
Опции за персонализация на курса
За да заявите персонализирано обучение за този курс, моля свържете се с нас за организиране.
Това водено от инструктор обучение на живо в Пловдив (онлайн или на място) е насочено към разработчици, които желаят да използват и интегрират Spark, Hadoop и Python за обработка, анализиране и трансформиране на големи и сложни масиви от данни.
До края на това обучение участниците ще могат:
Настройте необходимата среда, за да започнете да обработвате големи данни със Spark, Hadoop и Python.
Разберете характеристиките, основните компоненти и архитектурата на Spark и Hadoop.
Научете как да интегрирате Spark, Hadoop и Python за обработка на големи данни.
Разгледайте инструментите в екосистемата на Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka и Flume).
Изградете системи за препоръки за съвместно филтриране, подобни на Netflix, YouTube, Amazon, Spotify и Google.
Използвайте Apache Mahout за мащабиране на алгоритми за машинно обучение.
Това водено от инструктор обучение на живо в Пловдив (онлайн или на място) е насочено към начинаещи до системни администратори на средно ниво, които желаят да разположат, поддържат и оптимизират клъстери на Spark.
До края на това обучение участниците ще могат:
Инсталирайте и конфигурирайте Apache Spark в различни среди.
Управлявайте ресурсите на клъстера и наблюдавайте приложенията на Spark.
Оптимизирайте производителността на клъстерите Spark.
Приложете мерки за сигурност и осигурете висока наличност.
Отстраняване на грешки и отстраняване на често срещани проблеми със Spark.
В това водено от инструктор обучение на живо в Пловдив участниците ще се научат как да използват Python и Spark заедно, за да анализират големи данни, докато работят върху практически упражнения.
До края на това обучение участниците ще могат:
Научете как да използвате Spark с Python за анализ на Big Data.
Работете върху упражнения, които имитират случаи от реалния свят.
Използвайте различни инструменти и техники за анализ на големи данни, използвайки PySpark.
Анализът на големи данни включва процеса по разглеждане на голями обеми различни набори от данни с цел откриване на корелации, скрити модели и друга полезна информация.
Индустрията на здравеопазването има масивни обеми сложни иерархични медицински и клинични данни. Применяването на анализ на големи данни върху медизинските данни има голям потенциал за извличане на инсайтове, които могат да улучшат доставянето на медицински услуги. Въпреки това, обемите на тези набори от данни представят големи предизвикателства за анализ и практически приложения в клинична среда.
В този курс под водене на инструктор (удалено), участниците ще научат как да извършват анализ на големи данни в здравеопазването, докато преминават през серия от практически упражнения.
Към края на това обучение участниците ще могат да:
Инсталират и конфигурират инструменти за анализ на големи данни като Hadoop MapReduce и Spark
Разбираща се природата на медицинските данни
Прилагат методи за работа с големи данни за обработване на медицински данни
Изучават системите и алгоритмите за анализ на големи данни в контекста на здравните приложения
Целева група
Разработчици
Аналисти на данни
Формат на курса
Частично лекция, частично дискусия, упражнения и много практически занятия.
Бележка
За да поискате персонализирано обучение за този курс, моля се свържете с нас, за да го организираме.
Това водено от инструктор обучение на живо в Пловдив (онлайн или на място) е насочено към системни администратори, които желаят да научат как да настройват, разгръщат и управляват Hadoop клъстери в своята организация.
До края на това обучение участниците ще могат:
Инсталирайте и конфигурирайте Apache Hadoop.
Разберете четирите основни компонента в екосистемата Hadoop: HDFS, MapReduce, YARN и Hadoop Common.
Използвайте Hadoop Distributed File System (HDFS), за да мащабирате клъстер до стотици или хиляди възли.
Настройте HDFS да работи като машина за съхранение за локални внедрявания на Spark.
Настройте Spark за достъп до алтернативни решения за съхранение като Amazon S3 и NoSQL системи за бази данни като Redis, Elasticsearch, Couchbase, Aerospike и др.
Извършване на административни задачи като осигуряване, управление, наблюдение и защита на Apache Hadoop клъстер.
В този обучаван под ръководството на инструктор в Пловдив (на място или на разстояние), участниците ще научат как да настроят и интегрират различни фреймворки за потокова обработка с вече съществуващи системи за съхранение на големи данни, софтуерни приложения и микросервизи.
Край обучението участниците ще могат да:
Инсталират и настрояват различни фреймворки за потокова обработка, като Spark Streaming и Kafka Streaming.
Разбиращ какъв е най-подходящият фреймворк за конкретната задача.
Обработват данни непрекъснато, едновременно и по единичен запис.
Интегрират решенията за потокова обработка с вече съществуващи бази данни, складове на данни, озера на данни и т.н.
Интегрират най-подходящата библиотека за потокова обработка със съществуващи предприемачески приложения и микросервизи.
Това обучение с инструктор, провеждано на живо (онлайн или на място), е предназначено за специалисти по данни, които искат да използват стека SMACK за създаване на платформи за обработка на данни за решения за големи данни.
До края на това обучение участниците ще могат да:
Реализират архитектура на данни за обработка на големи данни.
Развиват кластерна инфраструктура с Apache Mesos и Docker.
Това обучение, водено от инструктор (в реално време или на място), е насочено към инженери, които искат да конфигурират и внедрят системата Apache Spark за обработка на много големи данни.
По завершването на това обучение участниците ще могат:
Инсталират и конфигурират Apache Spark.
Бързо обработват и анализират много големи данни.
Разберат разликата между Apache Spark и Hadoop MapReduce, както и кога да използват всяка от тях.
Интегрират Apache Spark с други инструменти за машинно учене.
Кривата на обучение на Apache Spark бавно се увеличава в началото, необходими са много усилия, за да се получи първата възвръщаемост. Този курс има за цел да премине през първата трудна част. След преминаването на този курс участниците ще разберат основите на Apache Spark, ще разграничат ясно RDD от DataFrame, ще научат Python и Scala API, ще разберат изпълнителите и задачите и т.н. Следвайки най-добрите практики, този курс силно се фокусира върху внедряването в облак, Databricks и AWS. Студентите също ще разберат разликите между AWS EMR и AWS Glue, една от най-новите услуги на Spark на AWS.
Този курс ще представи Apache Spark. Студентите ще научат как Spark се вписва в екосистемата на Big Data и как да използват Spark за анализ на данни. Курсът обхваща обвивка на Spark за интерактивен анализ на данни, вътрешни елементи на Spark, API на Spark, Spark SQL, поточно предаване на Spark и машинно обучение и graphX.
Това водено от инструктор обучение на живо в Пловдив (онлайн или на място) е насочено към учени и разработчици на данни, които желаят да използват Spark NLP, изграден върху Apache Spark, за разработване, внедряване и мащабиране на обработка на текст на естествен език модели и тръбопроводи.
До края на това обучение участниците ще могат:
Настройте необходимата среда за разработка, за да започнете изграждането на NLP тръбопроводи с Spark NLP.
Разберете характеристиките, архитектурата и ползите от използването на Spark NLP.
Използвайте предварително обучените модели, налични в Spark NLP, за да реализирате обработка на текст.
Научете как да създавате, обучавате и мащабирате Spark NLP модели за проекти от производствен клас.
Прилагайте класификация, изводи и анализ на настроенията върху случаи на употреба в реалния свят (клинични данни, прозрения за поведението на клиентите и т.н.).
Spark SQL е модулът на Apache Spark за работа с структурирани и неструктурирани данни. Spark SQL предоставя информация за структурата на данните, както и за извършваното изчисление. Тази информация може да бъде използвана за оптимизация. Две общи сценария за употреба на Spark SQL са:
- изпълнение на SQL заявки.
- четене на данни от съществуваща инсталация на Hive.
В този воден от инструктор обучаващ курс (на място или онлайн), участниците ще научат как да анализират различни типове набори от данни, използвайки Spark SQL.
По завършването на този курс, участниците ще могат:
Да инсталират и конфигурират Spark SQL.
Да анализират данни с използване на Spark SQL.
Да извършват заявки към набори от данни в различни формати.
Да визуализират данните и резултатите от заявките.
Формат на курса
Интерактивно предаване с дискусия.
Много упражнения и практика.
Приложение в реална лабораторна среда.
Опции за персонализиране на курса
За да поискате персонализирано обучение за този курс, моля, свържете се с нас, за да организираме.
Прочети повече...
Последна актуализация:
Отзиви от потребители (7)
Живите примери
Ahmet Bolat - Accenture Industrial SS
Курс - Python, Spark, and Hadoop for Big Data
Машинен превод
много интерактивно...
Richard Langford
Курс - SMACK Stack for Data Science
Машинен превод
Достатъчно практически упражнения, преподавателят е добре подготвен
Chris Tan
Курс - A Practical Introduction to Stream Processing
Машинен превод
Научете се за Spark Streaming, Databricks и AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Курс - Apache Spark in the Cloud
Машинен превод
практически задания
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Курс - Python and Spark for Big Data (PySpark)
Машинен превод
Виртуалната машина ми се спечели много добре.
Преподавателят беше изключено компетентен както по темата, така и по другите теми, той беше много приятен и дружелюбен.
Мне хареса обектът в Дубай.
Safar Alqahtani - Elm Information Security
Курс - Big Data Analytics in Health
Машинен превод
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Онлайн Apache Spark обучение в Пловдив, Apache Spark тренировъчни курсове в Пловдив, Уикенд Apache Spark курсове в Пловдив, Вечер Apache Spark обучение в Пловдив, Apache Spark водени от инструктор в Пловдив, Apache Spark обучение едно-в-едно в Пловдив, Apache Spark инструктор в Пловдив, Вечер Apache Spark курсове в Пловдив, Apache Spark водени от инструктор в Пловдив, Apache Spark частни курсове в Пловдив, Apache Spark на място в Пловдив, Apache Spark обучение в Пловдив, Apache Spark класове в Пловдив, Уикенд Apache Spark обучение в Пловдив, Онлайн Apache Spark обучение в !регион, Apache Spark тренировъчна програма в Пловдив, Apache Spark обучител в Пловдив