Hadoop kurser och utbildning

Hadoop kurser och utbildning

Lokala instruktörsledda Apache Hadoop-kurser visar genom interaktiva praktiska övningar kärnkomponenterna i Hadoop ekosystemet och hur dessa tekniker kan användas för att lösa stora problem. Hadoop-träning är tillgänglig som "live-träning" eller "fjärr-live-träning". Utbildning på plats kan genomföras lokalt på kundlokaler i Sverige eller i NobleProgs företagsutbildningscenter i Sverige . Fjärrutbildning sker genom en interaktiv fjärrskrivbord. NobleProg - Din lokala utbildningsleverantör

Machine Translated

Vittnesmål

★★★★★
★★★★★

Hadoop läroplaner

Kurs Namn
Varaktighet
Översikt
Kurs Namn
Varaktighet
Översikt
21 timmar
Python är ett skalbart, flexibelt och allmänt används programmeringsspråk för datavetenskap och maskininlärning. Spark är en databehandlingsmotor som används för att söka, analysera och omvandla stora data, medan Hadoop är en mjukvarubibliotek ram för storskalig data lagring och bearbetning. Denna instruktörledda, live-utbildning (online eller on-site) riktar sig till utvecklare som vill använda och integrera Spark, Hadoop, och Python för att behandla, analysera och omvandla stora och komplexa dataset. Vid slutet av denna utbildning kommer deltagarna att kunna:
    Ställ in den nödvändiga miljön för att börja behandla stora data med Spark, Hadoop, och Python. Förstå egenskaperna, kärnkomponenterna och arkitekturen i Spark och Hadoop. Lär dig hur du integrerar Spark, Hadoop, och Python för stordatabehandling. Utforska verktygen i Spark-ekosystemet (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka och Flume). Bygg samarbetsfiltrering rekommendationssystem som liknar Netflix, YouTube, Amazon, Spotify och Google. Använd Apache Mahout för att skala algoritmer för maskininlärning.
Format för kursen
    Interaktiv föreläsning och diskussion. Många övningar och övningar. Hand-on implementering i en live-lab miljö.
Kursanpassningsalternativ
    För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
7 timmar
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 timmar
Datameer är en affärsinformations- och analysplattform byggd på Hadoop Det gör det möjligt för endusers att få tillgång till, utforska och korrelera storskala, strukturerad, semistrukturerad och ostrukturerad data på ett easytouse-sätt I den här instruktionsledda träningspasset lär deltagarna att använda Datameer för att övervinna Hadops branta inlärningskurva, eftersom de går igenom installationen och analysen av en serie stora datakällor Vid slutet av denna utbildning kommer deltagarna att kunna: Skapa, curate och interaktivt utforska en företagsdatasjö Få tillgång till affärsinformationslager, transaktionsdatabaser och andra analytiska butiker Använd en kalkylarks användargränssnitt för att designa ändringsrutiner för databehandling Få tillgång till förbyggda funktioner för att utforska komplexa datarelationer Använd draganddrop-guider för att visualisera data och skapa instrumentpaneler Använd tabeller, diagram, grafer och kartor för att analysera sökresultat Publik Dataanalyser Kursens format Delföreläsning, diskussion, övningar och tung handson-övning .
21 timmar
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 timmar
Publik: Kursen är avsedd för IT-specialister som letar efter en lösning för att lagra och bearbeta stora datamängder i en distribuerad systemmiljö Go al: Djup kunskap om Hadoop klusteradministration.
28 timmar
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 timmar
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 timmar
Apache Hadoop är en av de mest populära ramarna för bearbetning av Big Data på kluster av servrar. Denna kurs omfattar datahantering i HDFS, avancerad gris, Hive och HBase. Dessa avancerade programmeringstekniker kommer att vara fördelaktiga för erfarna Hadoop utvecklare. Publik : utvecklare Varaktighet: tre dagar Format: föreläsningar (50%) och praktiska labb (50%).
21 timmar
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 timmar
Apache Hadoop är den mest populära ramen för behandling av Big Data på kluster av servrar. I den här tre (valfritt, fyra) dagars kurs kommer deltagarna att lära sig om affärsfördelarna och använda fall för Hadoop och dess ekosystem, hur man planerar distribution och tillväxt av kluster, hur man installerar, underhåller, övervakar, felsöker och optimerar Hadoop . De kommer också att öva kluster bulk data belastning, bekanta sig med olika Hadoop distributioner och öva på att installera och hantera Hadoop ekosystemverktyg. Kursen avslutas med diskussion om att säkra kluster med Kerberos. ”... Materialen var mycket väl förberedda och täckta noggrant. Laben var mycket hjälpsam och välorganiserad ”
- Andrew Nguyen, Principal Integration DW Engineer, Microsoft Online Advertising Publik Hadoop administratörer Formatera Föreläsningar och praktiska labb, ungefärligt balans 60% föreläsningar, 40% labb.
21 timmar
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 timmar
Hadoop är den mest populära Big Data-bearbetningsramen .
14 timmar
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 timmar
Kursen är avsedd för utvecklare, arkitekter, datavetenskapare eller någon profil som kräver tillgång till data antingen intensivt eller regelbundet Kursens huvudfokus är dataprofilering och transformation Bland de verktyg som ingår i Hadoop ekosystemet ingår i denna kurs användningen av gris och hiva som båda används kraftigt för datatransformation och manipulation Denna utbildning behandlar även prestandametri och prestationsoptimering Kursen handlar helt och hållet och skiljer sig genom presentationer av de teoretiska aspekterna .
14 timmar
In this instructor-led training in Sverige, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 timmar
Apache Samza är en öppen källkod, nästan realtid, asynkron beräkningsram för strömbehandling. Den använder Apache Kafka för meddelanden och Apache Hadoop YARN för feltolerans, processorisolering, säkerhet och resurshantering. Den här instruktörsledda, live-utbildningen introducerar principerna bakom meddelandesystem och distribuerad strömbearbetning, samtidigt som deltagarna går genom skapandet av ett exempel på Samza-baserat projekt och jobbutförande. I slutet av denna träning kommer deltagarna att kunna:
  • Använd Samza för att förenkla koden som behövs för att producera och konsumera meddelanden.
  • Koppla bort hanteringen av meddelanden från en applikation.
  • Använd Samza för att implementera asynkron beräkning nära realtid.
  • Använd strömbehandling för att ge en högre abstraktionsnivå över meddelandesystem.
Publik
  • utvecklare
Kursformat
  • Delföreläsning, delvis diskussion, övningar och tung praktisk övning
7 timmar
Alluxio är ett open-source virtuellt distribuerat lagringssystem som förenar olika lagringssystem och möjliggör applikationer att interagera med data vid minneshastighet. Den används av företag som Intel, Baidu och Alibaba. I denna instruktörledda, levande träning kommer deltagarna att lära sig hur man använder Alluxio för att bryta olika beräkningsramar med lagringssystem och effektivt hantera multi-petabyte skala data när de går igenom skapandet av en app med Alluxio. Vid slutet av denna utbildning kommer deltagarna att kunna:
    Utveckla en ansökan med Alluxio Anslut stora datasystem och applikationer samtidigt som du bevarar ett namnområde Effektivt extrahera värde från stora data i något lagringsformat Förbättra arbetsbelastningsprestanda Deploy och hantera Alluxio ensam eller klusterad
Publiken
    Data forskare Utvecklare Systemadministratör
Format av kursen
    Delvis föreläsning, delvis diskussion, övningar och tung praxis
14 timmar
Tigon är en open source, realtime, lowlatency, highthroughput, native YARN, strömbehandlingsramverk som sitter ovanpå HDFS och HBase för uthållighet Tigon-applikationer adresserar användarfall som nätverksintrångsdetektering och -analys, marknadsanalys av sociala medier, platsanalyser och realtidsrekommendationer till användare Denna instruktörsledda, levande träning introducerar Tigons strategi för att blanda realtid och satsvis bearbetning eftersom det går deltagare genom att skapa en provapplikation Vid slutet av denna utbildning kommer deltagarna att kunna: Skapa kraftfulla, strömbehandlingsprogram för hantering av stora datamängder Process strömkällor som Twitter och Webserver Logs Använd Tigon för snabb anslutning, filtrering och aggregering av strömmar Publik utvecklare Kursens format Delföreläsning, diskussion, övningar och tung handson-övning .
21 timmar
Apache NiFi (Hortonworks DataFlow) är en realtid integrerad datalogistik och enkel händelsehanteringsplattform som gör det möjligt att flytta, spåra och automatisera data mellan system. Det är skriven med flödesbaserad programmering och ger ett webbaserat användargränssnitt för att hantera dataflöden i realtid. I denna instruktörsledda, live-träning (på plats eller fjärrkontroll) kommer deltagarna att lära sig hur man distribuerar och hanterar Apache NiFi i en levande laboratoriemiljö. I slutet av denna träning kommer deltagarna att kunna:
  • Installera och konfigurera Apachi NiFi.
  • Källa, transformera och hantera data från olika, distribuerade datakällor, inklusive databaser och big data sjöar.
  • Automatisera dataflöden.
  • Aktivera strömningsanalys.
  • Använd olika metoder för intag av data.
  • Förvandla Big Data och till affärsinblick.
Kursformat
  • Interaktiv föreläsning och diskussion.
  • Massor av övningar och träning.
  • Praktisk implementering i en levande lab-miljö.
Alternativ för kursanpassning
  • För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
7 timmar
Apache NiFi (Hortonworks DataFlow) är en realtid integrerad datalogistik och enkel händelsehanteringsplattform som gör det möjligt att flytta, spåra och automatisera data mellan system. Det är skriven med flödesbaserad programmering och ger ett webbaserat användargränssnitt för att hantera dataflöden i realtid. I denna instruktörsledda, live-träning kommer deltagarna att lära sig grunderna i flödesbaserad programmering när de utvecklar ett antal demo-förlängningar, komponenter och processorer som använder Apache NiFi . I slutet av denna träning kommer deltagarna att kunna:
  • Förstå NiFi: s arkitektur och dataflödeskoncept.
  • Utveckla tillägg med NiFi och tredjeparts API: er.
  • Anpassa sin egen Apache Nifi-processor.
  • Förvara och bearbeta data i realtid från olika och ovanliga filformat och datakällor.
Kursformat
  • Interaktiv föreläsning och diskussion.
  • Massor av övningar och träning.
  • Praktisk implementering i en levande lab-miljö.
Alternativ för kursanpassning
  • För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
28 timmar
Hadoop är en populär Big Data bearbetningsram. Python är ett högnivåprogrammeringsspråk känt för sin tydliga syntax och kodläsbarhet. I denna instruktörledda, live-träning lär deltagarna hur man arbetar med Hadoop, MapReduce, Pig, och Spark med Python när de går igenom flera exempel och använder fall. Vid slutet av denna utbildning kommer deltagarna att kunna:
    Förstå de grundläggande begreppen bakom Hadoop, MapReduce, Pig, och Spark Använd Python med Hadoop Distributed File System (HDFS), MapReduce, Pig, och Spark Använd Snakebite för att programmatiskt få tillgång till HDFS inom Python Använd mrjob för att skriva MapReduce jobb i Python Skriv Spark program med Python Utöka funktionaliteten hos gris med Python UDF Hantera MapReduce jobb och Pig skript med Luigi
Publiken
    Utvecklare IT professionella
Format av kursen
    Delvis föreläsning, delvis diskussion, övningar och tung praxis
14 timmar
Sqoop är ett program med öppen källkod för överföring av data mellan Hadoop och relationsdatabaser eller mainframes Det kan användas för att importera data från ett relationsdatabashanteringssystem (RDBMS) som MySQL eller Oracle eller en mainframe i Hadoop Distributed File System (HDFS) Därefter kan data transformeras i Hadoop MapReduce och sedan exporteras tillbaka till en RDBMS I den här instruktörsledda träningen lär deltagarna att lära sig hur man använder Sqoop för att importera data från en traditionell relationsdatabas till Hadoop-lagring, tex HDFS eller Hive och vice versa Vid slutet av denna utbildning kommer deltagarna att kunna: Installera och konfigurera Sqoop Importera data från MySQL till HDFS och Hive Importera data från HDFS och Hive till MySQL Publik Systemadministratörer Datatekniker Kursens format Delföreläsning, diskussion, övningar och tung handson-övning Notera För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna .
21 timmar
Big data-analys innefattar processen att undersöka stora mängder olika datauppsättningar för att avslöja korrelationer, dolda mönster och andra användbara insikter. Hälsoindustrin har enorma mängder komplexa heterogena medicinska och kliniska data. Att tillämpa big data-analyser på hälsodata ger en stor potential att få insikter för att förbättra leveransen av sjukvård. Emellertid innebär enorma mängder av dessa datamängder stora utmaningar i analyser och praktiska tillämpningar i en klinisk miljö. I denna instruktörsledda, live-träning (fjärrkontroll) kommer deltagarna att lära sig att utföra big data-analys i hälsa när de går igenom en serie praktiska live-lab-övningar. I slutet av denna träning kommer deltagarna att kunna:
  • Installera och konfigurera big data-analysverktyg som Hadoop MapReduce och Spark
  • Förstå egenskaperna för medicinsk information
  • Använd big data-tekniker för att hantera medicinska data
  • Studera big data system och algoritmer i samband med hälsoapplikationer
Publik
  • utvecklare
  • Datavetare
Kursformat
  • Delföreläsning, delvis diskussion, övningar och tung praktisk övning.
Notera
  • För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
35 timmar
Apache Hadoop är en populär databehandlingsram för bearbetning av stora dataset över många datorer. Denna instruktörledda, live-utbildning (online eller on-site) riktar sig till systemadministratörer som vill lära sig hur man konfigurerar, distribuerar och hanterar Hadoop kluster inom sin organisation. Vid slutet av denna utbildning kommer deltagarna att kunna:
    Installera och konfigurera Apache Hadoop. Förstå de fyra huvudkomponenterna i Hadoop ekosystemet: HDFS, MapReduce, YARN och Hadoop Common. Använd Hadoop Distributed File System (HDFS) för att skala en kluster till hundratals eller tusentals noder.   Installera HDFS för att fungera som lagringsmotor för on-premise Spark deployments. Ställ in Spark för att få tillgång till alternativa lagringslösningar som Amazon S3 och NoSQL databassystem som Redis, Elasticsearch, Couchbase, Aerospike, etc. Utföra administrativa uppgifter som tillhandahållande, hantering, övervakning och säkerhet av en Apache Hadoop kluster.
Format för kursen
    Interaktiv föreläsning och diskussion. Många övningar och övningar. Hand-on implementering i en live-lab miljö.
Kursanpassningsalternativ
    För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
21 timmar
Cloudera Impala är en öppen källkod massivt parallell bearbetning (MPP) SQL sökmotor för Apache Hadoop kluster. Impala tillåter användare att utfärda låga hastigheter SQL frågor till data som lagras i Hadoop Distributed File System  och Apache Hbase  utan att kräva data rörelse eller omvandling. Publiken Kursen riktar sig till analytiker och datavetenskapsmän som utför analys på data som lagras i Hadoop via Business Intelligence eller SQL verktyg. Efter denna kurs kommer delegaterna att kunna
    Ta ut betydande information från Hadoop kluster med Impala. Skriv specifika program för att underlätta Business Intelligence i Impala SQL Dialect. Problemlösning Impala
21 timmar
Apache Ambari är en open source-managementplattform för att tillhandahålla, hantera, övervaka och säkra Apache Hadoop kluster. I denna instruktörsledda liveträning kommer deltagarna att lära sig hanteringsverktygen och praxis som Ambari tillhandahåller för att framgångsrikt hantera Hadoop kluster. I slutet av denna träning kommer deltagarna att kunna:
  • Ställ in ett live Big Data kluster med Ambari
  • Använd Ambaris avancerade funktioner och funktioner i olika användningsfall
  • Lägg till och ta bort noder sömlöst efter behov
  • Förbättra ett Hadoop klustrets prestanda genom att ställa in och justera
Publik
  • DevOps
  • Systemadministratörer
  • databasadministratörer
  • Hadoop testare
Kursformat
  • Delföreläsning, delvis diskussion, övningar och tung praktisk övning
21 timmar
Hortonworks Data Platform (HDP) är en open-source Apache Hadoop supportplattform som ger en stabil grund för att utveckla big data-lösningar på Apache Hadoop ekosystemet. Den här instruktörsledda, liveträningen (på plats eller fjärrkontroll) introducerar Hortonworks Data Platform (HDP) och leder deltagarna genom implementeringen av Spark + Hadoop lösningen. I slutet av denna träning kommer deltagarna att kunna:
  • Använd Hortonworks för att pålitligt köra Hadoop i stor skala.
  • Förena Hadoop säkerhets-, styrelseförmåga- och driftsfunktioner med Sparks agila analytiska arbetsflöden.
  • Använd Hortonworks för att undersöka, validera, certifiera och stödja alla komponenter i ett Spark-projekt.
  • Bearbeta olika typer av data, inklusive strukturerade, ostrukturerade, i rörelse och vila.
Kursformat
  • Interaktiv föreläsning och diskussion.
  • Massor av övningar och träning.
  • Praktisk implementering i en levande lab-miljö.
Alternativ för kursanpassning
  • För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.

Last Updated:

Helg Hadoop kurs, kvällApache Hadoop utbildning, Hadoop bootcamp, Apache Hadoop instruktörledd, Helg Hadoop utbildning, Kväll Hadoop kurs, Apache Hadoop coaching, Apache Hadoop instruktör, Hadoop tränare, Apache Hadoop kurs, Hadoop klasser, Hadoop on-site, Apache Hadoop privata kurser, Hadoop en till en utbildning

Rabatterade kurser

Nyhetsbrev & Erbjudanden

Anmäl dig till vårt nyhetsbrev så får du information om aktuella rabatter på öppna kurser. Vi respekterar ditt privatliv, så att din e-postadress kommer endast att användas för sändning vårt nyhetsbrev. När som helst kan du ändra inställningarna eller helt avbeställa den.

Våra kunder

is growing fast!

We are looking to expand our presence in Sweden!

As a Business Development Manager you will:

  • expand business in Sweden
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

This site in other countries/regions