Szkolenie Big Data Hadoop and Spark Developer
Szkolenia Big Data Hadoop and Spark Developer oferowane przez iLEARN
BIG DATA HADOOP I SPARK DEVELOPER
Świat staje się coraz bardziej cyfrowy, a znaczenie big data i analityki danych będzie nadal rosło w nadchodzących latach. Wybór kariery w dziedzinie big data i analityki może być właśnie tym, czego szukałeś, aby spełnić swoje oczekiwania zawodowe.
Szkolenie Big Data Hadoop zapozna Cię z koncepcjami frameworka Hadoop, jego tworzeniem w środowisku klastrowym i przygotuje Cię do certyfikacji Cloudera CCA175 Big Data.
CERTYFIKACJA BIG DATA HADOOP AND SPARK DEVELOPER
Nie ma dostępnego egzaminu, ale aby uzyskać certyfikat, należy ukończyć 85% kursu, jeden projekt i jeden test symulacyjny z minimalnym wynikiem 80%.
KURS BIG DATA HADOOP AND SPARK DEVELOPER
Dzięki temu kursowi Big Data Hadoop nauczysz się struktury Big Data przy użyciu Hadoop i Spark, w tym HDFS, YARN i MapReduce. Kurs obejmie również Pig, Hive i Impala do przetwarzania i analizowania dużych zbiorów danych przechowywanych w HDFS oraz używania Sqoop i Flume do pozyskiwania danych.
Zostanie pokazane przetwarzanie danych w czasie rzeczywistym przy użyciu Sparka, w tym programowanie funkcjonalne w Sparku, wdrażanie aplikacji Spark, zrozumienie przetwarzania równoległego w Sparku i korzystanie z technik optymalizacji Spark RDD. Poznasz również różne interaktywne algorytmy w Spark i użyjesz Spark SQL do tworzenia, przekształcania i wysyłania zapytań do formularzy danych.
Na koniec będziesz musiał wykonać rzeczywiste, branżowe projekty przy użyciu CloudLab w domenach bankowości, telekomunikacji, mediów społecznościowych, ubezpieczeń i handlu elektronicznego.
Poniżej można zapoznać się z arkuszem kursu zawierającym informacje na temat Big Data Hadoop i Spark Developer.
Objectives
Pod koniec kursu będziesz w stanie zrozumieć:
- Różne składniki ekosystemu Hadoop, takie jak Hadoop 2.7, Yarn, MapReduce, Pig, Hive, Impala, HBase, Sqoop, Flume i Apache Spark
- Rozproszony system plików Hadoop (HDFS) i architektura YARN
- MapReduce i jego charakterystyka oraz przyswajanie zaawansowanych koncepcji MapReduce
- Różne typy formatów plików, schemat Avro, używanie Avro z Hive oraz ewolucja Sqoop i schematu
- Flume, architektura Flume, źródła, zlewy Flume, kanały i konfiguracje Flume
- HBase, jego architektura i przechowywanie danych oraz poznanie różnic między HBase i RDBMS
- Odporne dystrybucyjne zbiory danych (RDD) w szczegółach
- Typowe przypadki użycia Sparka i różne interaktywne algorytmy
Będziesz także w stanie
- Ingestować dane przy użyciu Sqoop i Flume
- Tworzyć bazy danych i tabele w Hive i Impala, rozumieć HBase oraz używać Hive i Impala do partycjonowania
- Zdobyć praktyczną wiedzę na temat Pig i jego komponentów
- Programowanie funkcjonalne w Spark oraz wdrażanie i tworzenie aplikacji Spark
- Dogłębne zrozumienie przetwarzania równoległego w Spark i technik optymalizacji Spark RDD
- Tworzenie, przekształcanie i wysyłanie zapytań do ramek danych za pomocą Spark SQL
Who it is aimed at
Możliwości kariery w obszarze Big Data są coraz większe, a Hadoop szybko staje się niezbędną technologią w architekturze Big Data. Szkolenie Big Data jest odpowiednie dla specjalistów IT, zarządzania danymi i analityki, w tym:
- Programiści i architekci oprogramowania
- Specjaliści ds. analityki
- Starsi specjaliści IT
- Specjaliści ds. testowania i komputerów mainframe
- Specjaliści ds. zarządzania danymi
- Specjaliści ds. analizy biznesowej
- Kierownicy projektów
- Aspirujący analitycy danych
- Absolwenci chcący rozpocząć karierę w dziedzinie analityki dużych zbiorów danych
Contents
Kurs obejmuje następujące tematy:
- Wprowadzenie do kursu
- Lekcja 1 - Wprowadzenie do big data i ekosystemu Hadoop
- Lekcja 2 - HDFS i YARN
- Lekcja 3 - MapReduce i Sqoop
- Lekcja 4 - Podstawy Hive i Impala
- Lekcja 5 - Praca z Hive i Impala
- Lekcja 6 - Rodzaje formatów danych
- Lekcja 7 - Zaawansowana koncepcja Hive i partycjonowanie plików danych
- Lekcja 8 - Apache Flume i HBase
- Lekcja 9 - Pig
- Lekcja 10 - Podstawy Apache Spark
- Lekcja 11 - RDD w Spark
- Lekcja 12 - Implementacja aplikacji Spark
- Lekcja 13 - Przetwarzanie równoległe w Spark
- Lekcja 14 - Techniki optymalizacji RDD w Sparku
- Lekcja 15 - Algorytm Spark
- Lekcja 16 - Spark SQL
- DARMOWY KURS - Apache Kafka
- BEZPŁATNY KURS - Java Core
Prerequisites
Nie ma żadnych wymagań wstępnych dla tego kursu. Korzystne jest jednak posiadanie pewnej wiedzy z zakresu Core Java i SQL. Oferujemy bezpłatny kurs online"Java essentials for Hadoop", jeśli chcesz odświeżyć swoje umiejętności w zakresie Core Java.
Duration
Czas trwania kursuonline:
- 1 rok dostępu do platformy