Cursuri de pregatire Stream Processing with Kafka Streams
Kafka Streams este o bibliotecă din partea clientului pentru construirea de aplicații și microservicii ale căror date sunt transmise către și de la un sistem de mesagerie Kafka. În mod tradițional, Apache Kafka s-a bazat pe Apache Spark sau Apache Storm pentru a prelucra date între producătorii de mesaje și consumatori. Apelând API-ul Kafka Streams din cadrul unei aplicații, datele pot fi procesate direct în Kafka, ocolind nevoia de a trimite datele către un cluster separat pentru procesare.
În cadrul acestui training, instruit în direct, participanții vor învăța cum să integreze Kafka Streams într-un set de aplicații Java care să treacă date de la și de la Apache Kafka pentru procesarea fluxului.
Până la sfârșitul acestui antrenament, participanții vor putea:
- Înțelegeți caracteristicile și avantajele Kafka Streams față de alte cadre de procesare a fluxurilor
- Procesați fluxul de date direct în cadrul unui cluster Kafka
- Scrieți o aplicație sau microservice Java sau Scala care se integrează cu Kafka și Kafka Streams
- Scrieți un cod concis care transformă subiectele Kafka de intrare în subiecte Kafka de ieșire
- Construiți, împachetați și implementați aplicația
Public
- Dezvoltatori
Formatul cursului
- Partea de prelegere, o discuție parțială, exerciții și practici practice
notițe
- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a vă organiza
Schița de curs
Introducere
- Kafka împotriva Spark, Flink și Storm
Prezentare generală a caracteristicilor Kafka Streams
- Procesare cu stat și fără apatridă, procesare în timp de eveniment, DSL, operațiuni de ferestre bazate pe timp de eveniment etc.
Studiu de caz: API-ul Kafka Streams pentru bugetarea predictivă
Crearea mediului de dezvoltare
Crearea unei aplicații Streams
Pornirea Clusterului Kafka
Pregătirea subiectelor și a datelor de intrare
Opțiuni pentru procesarea datelor din flux
- Kafka Streams DSL de nivel înalt
- Procesor de nivel inferior
Transformarea datelor de intrare
Inspectarea datelor de ieșire
Oprirea Clusterului Kafka
Opțiuni pentru implementarea aplicației
- Instrumente operaționale clasice (Puppet, Chef și Salt)
- Docker
- dosar WAR
Depanare
Rezumat și Concluzie
Cerințe
- O înțelegere a Apache Kafka
- Java experiență în programare
Cursurile publice necesita 5+ participanti
Cursuri de pregatire Stream Processing with Kafka Streams - Booking
Cursuri de pregatire Stream Processing with Kafka Streams - Enquiry
Stream Processing with Kafka Streams - Cerere de consultanta
Cerere de consultanta
Mărturii (1)
Recalling/reviewing keypoints of the topics discussed.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Curs - Building Stream Processing Applications with Kafka Streams
Upcoming Courses
Cursuri înrudite
Apache Ignite for Administrators
7 oreFormatul cursului
- Prelegere și discuții interactive.
- O mulțime de exerciții și practică.
- Implementare practică într-un mediu live-lab.
Opțiuni de personalizare a cursului
- Pentru a solicita o instruire personalizată pentru acest curs, vă rugăm să ne contactați pentru a aranja.
Apache Kafka Connect
7 oreAcest curs de instruire live, condus de un instructor în Moldova (online sau la fața locului) se adresează dezvoltatorilor care doresc să integreze Apache Kafka cu bazele de date și aplicațiile existente pentru procesare, analiză etc.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Utilizați Kafka Connect pentru a ingera cantități mari de date dintr-o bază de date în subiectele Kafka.
- Ingerați datele de jurnal generate de serverele unei aplicații în subiecte Kafka.
- Puneți la dispoziție orice date colectate pentru procesarea fluxurilor. .
- Exportați datele din subiectele Kafka în sisteme secundare pentru stocare și analiză. .
Unified Batch and Stream Processing with Apache Beam
14 oreApache Beam este un model de programare unificat, cu sursă deschisă, pentru definirea și executarea conductelor paralele de prelucrare a datelor. Puterea sa constă în capacitatea sa de a rula atât conducte pe loturi, cât și conducte de flux, execuția fiind efectuată de unul dintre back-end-urile de procesare distribuită acceptate de Beam: Apache Apex, Apache Flink, Apache Spark și Google Cloud Dataflow. Apache Beam este util pentru sarcinile ETL (Extract, Transform, and Load), cum ar fi mutarea datelor între diferite medii de stocare și surse de date, transformarea datelor într-un format mai dorit și încărcarea datelor într-un sistem nou.
În cadrul acestei formări live (la fața locului sau de la distanță) susținute de un instructor, participanții vor învăța cum să implementeze SDK-urile Apache Beam într-o aplicație Java sau Python care definește o conductă de procesare a datelor pentru descompunerea unui set de date mari în bucăți mai mici pentru procesare independentă, paralelă.
La finalul acestei instruiri, participanții vor fi capabili să:
- Să instaleze și să configureze Apache Beam.
- Să utilizeze un singur model de programare pentru a efectua atât procesarea pe loturi, cât și pe fluxuri din cadrul aplicației Java sau Python.
- Să execute pipeline-uri în mai multe medii.
Formatul cursului
- Parte prelegere, parte discuție, exerciții și multă practică
Notă
- Acest curs va fi disponibil Scala în viitor. Vă rugăm să ne contactați pentru a aranja.
Building Kafka Solutions with Confluent
14 oreacest instructor-condus, Live Training (la fața locului sau la distanță) este destinat ingineri care doresc să utilizeze confluente (o distribuție de Kafka) pentru a construi și de a gestiona o platformă de prelucrare a datelor în timp real pentru aplicațiile lor.
până la sfârșitul acestui training, participanții vor putea:
- instala și configura platforma confluent.
- utilizarea confluente & #39; s instrumente de gestionare și servicii pentru a rula Kafka mai ușor.
- stoca și procesul de intrare flux de date.
- optimiza și gestiona clustere Kafka.
- sigure fluxuri de date.
format al cursului
- interactive prelegere și discuții.
- o mulțime de exerciții și practică.
- hands-on punerea în aplicare într-un mediu de laborator live.
curs opțiuni de personalizare
- acest curs se bazează pe versiunea Open Source de confluente: confluent deschidere acru.
- pentru a solicita un training personalizat pentru acest curs, va rugam sa ne contactati pentru a aranja.
Building Data Pipelines with Apache Kafka
7 oreApache Kafka este o platformă de streaming distribuită. Este de facto un standard pentru construirea conductelor de date și rezolvă o mulțime de cazuri de utilizare diferite în jurul procesării de date: poate fi utilizat ca coadă de mesaje, jurnal distribuit, procesor de flux etc.
Vom începe cu o teorie din spatele conductelor de date în general, apoi vom continua cu concepte fundamentale din spatele Kafka. Vom descoperi, de asemenea, componente importante precum Kafka Streams și Kafka Connect.
Apache Flink Fundamentals
28 oreAcest curs de formare live, condus de un instructor în Moldova (online sau la fața locului) prezintă principiile și abordările care stau la baza procesării distribuite a datelor în flux și pe loturi și conduce participanții prin crearea unei aplicații de flux de date în timp real în Apache Flink.
Până la sfârșitul acestui curs, participanții vor fi capabili să:
- Să creeze un mediu pentru dezvoltarea de aplicații de analiză a datelor.
- Să înțeleagă cum funcționează biblioteca de procesare a grafurilor (Gelly) din Apache Flink.
- Să împacheteze, să execute și să monitorizeze aplicații de flux de date bazate pe Flink, tolerante la erori.
- Gestionarea diverselor sarcini de lucru.
- Efectuarea de analize avansate.
- Configurarea unui cluster Flink cu mai multe noduri.
- Măsurarea și optimizarea performanței.
- Integrarea Flink cu diferite sisteme Big Data.
- Compararea capacităților Flink cu cele ale altor cadre de procesare a datelor mari.
A Practical Introduction to Stream Processing
21 oreÎn cadrul acestui curs de instruire live, condus de un instructor în Moldova (la fața locului sau la distanță), participanții vor învăța cum să configureze și să integreze diferite cadre Stream Processing cu sistemele de stocare de date mari existente și cu aplicațiile software și microserviciile aferente.
La sfârșitul acestui curs de formare, participanții vor fi capabili să:
- Instalați și configurați diferite cadre Stream Processing, cum ar fi Spark Streaming și Kafka Streaming.
- Înțelegeți și selectați cel mai potrivit cadru pentru treaba respectivă. .
- Procesați date în mod continuu, simultan și în mod înregistrare cu înregistrare. .
- Integrați Stream Processing soluțiile cu bazele de date existente, depozitele de date, lacurile de date, etc. .
- Integrați cea mai potrivită bibliotecă de procesare a fluxurilor cu aplicații de întreprindere și microservicii.
Distributed Messaging with Apache Kafka
14 oreAcest curs este destinat arhitecților de întreprinderi, dezvoltatorilor, administratorilor de sistem și oricui dorește să înțeleagă și să utilizeze un sistem de mesagerie distribuit de mare capacitate. Dacă aveți cerințe mai specifice (de exemplu, doar partea de administrare a sistemului), acest curs poate fi adaptat pentru a vă adapta mai bine nevoilor.
Apache Kafka for Python Programmers
7 oreAceastă instruire live, cu instructor în Moldova (online sau la fața locului) se adresează inginerilor de date, cercetătorilor de date și programatorilor care doresc să utilizeze caracteristicile Apache Kafka în fluxul de date cu Python.
Până la sfârșitul acestei formări, participanții vor fi capabili să utilizeze Apache Kafka pentru a monitoriza și gestiona condițiile în fluxurile continue de date utilizând programarea Python.
Confluent KSQL
7 oreAcest curs de formare live, condus de un instructor în Moldova (online sau la fața locului) se adresează dezvoltatorilor care doresc să implementeze Apache Kafka procesarea fluxurilor fără a scrie cod.
Până la sfârșitul acestei formări, participanții vor fi capabili să:
- Să instaleze și să configureze Confluent KSQL.
- Să configureze o conductă de procesare a fluxurilor utilizând numai comenzi SQL (fără codare Java sau Python).
- Să efectueze filtrarea datelor, transformări, agregări, îmbinări, ferestre și sesionări în întregime în SQL.
- Proiectați și implementați interogări interactive și continue pentru ETL în flux și analize în timp real.
Apache NiFi for Administrators
21 oreÎn cadrul acestei formări live cu instructor în Moldova (la fața locului sau la distanță), participanții vor învăța cum să implementeze și să gestioneze Apache NiFi într-un mediu de laborator live.
Până la sfârșitul acestui training, participanții vor fi capabili să:
- Să instaleze și să configureze Apachi NiFi.
- Să genereze, să transforme și să gestioneze date din surse de date disparate și distribuite, inclusiv baze de date și lacuri de date mari.
- Să automatizeze fluxurile de date.
- Să permită analizele de flux.
- Aplicați diverse abordări pentru ingestia datelor.
- Transformarea Big Data și în perspective de afaceri.
Apache NiFi for Developers
7 oreÎn cadrul acestei formări live, condusă de un instructor în Moldova, participanții vor învăța elementele de bază ale programării bazate pe flux pe măsură ce vor dezvolta o serie de extensii, componente și procesoare demonstrative utilizând Apache NiFi.
Până la sfârșitul acestei instruiri, participanții vor fi capabili să:
- Să înțeleagă arhitectura NiFi și conceptele de flux de date.
- Să dezvolte extensii utilizând NiFi și API-uri terțe.
- Să își dezvolte propriul procesor Apache Nifi personalizat.
- Să primească și să proceseze date în timp real din formate de fișiere și surse de date disparate și neobișnuite.
Spark Streaming with Python and Kafka
7 oreAceastă instruire live, cu instructor, în Moldova (online sau la fața locului) se adresează inginerilor de date, cercetătorilor de date și programatorilor care doresc să utilizeze caracteristicile Spark Streaming în procesarea și analiza datelor în timp real.
Până la sfârșitul acestei instruiri, participanții vor fi capabili să utilizeze Spark Streaming pentru a procesa fluxuri de date în timp real pentru a fi utilizate în baze de date, sisteme de fișiere și tablouri de bord în timp real.