Big Data kurser och utbildning

Big Data kurser och utbildning

Lokala instruktörer ledda Big Data-kurser börjar med en introduktion till elementära begrepp i Big Data, sedan framsteg i programmeringsspråk och metoder som används för att utföra Data Analysis. Verktyg och infrastruktur för att möjliggöra stor datalagring, distribuerad bearbetning och skalbarhet diskuteras, jämförs och implementeras i demo övningar. Stor dataträning är tillgänglig som "live-träning" eller "fjärr-live-träning". Utbildning på plats kan genomföras lokalt på kundlokaler i Sverige eller i NobleProgs företagsutbildningscenter i Sverige . Fjärrutbildning sker genom en interaktiv fjärrskrivbord. NobleProg - Din lokala utbildningsleverantör

Machine Translated

Vittnesmål

★★★★★
★★★★★

Big Data läroplaner

Kurs Namn
Varaktighet
Översikt
Kurs Namn
Varaktighet
Översikt
21 timmar
Python är ett skalbart, flexibelt och allmänt används programmeringsspråk för datavetenskap och maskininlärning. Spark är en databehandlingsmotor som används för att söka, analysera och omvandla stora data, medan Hadoop är en mjukvarubibliotek ram för storskalig data lagring och bearbetning.

Denna instruktörledda, live-utbildning (online eller on-site) riktar sig till utvecklare som vill använda och integrera Spark, Hadoop, och Python för att behandla, analysera och omvandla stora och komplexa dataset.

Vid slutet av denna utbildning kommer deltagarna att kunna:

Ställ in den nödvändiga miljön för att börja behandla stora data med Spark, Hadoop, och Python. Förstå egenskaperna, kärnkomponenterna och arkitekturen i Spark och Hadoop. Lär dig hur du integrerar Spark, Hadoop, och Python för stordatabehandling. Utforska verktygen i Spark-ekosystemet (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka och Flume). Bygg samarbetsfiltrering rekommendationssystem som liknar Netflix, YouTube, Amazon, Spotify och Google. Använd Apache Mahout för att skala algoritmer för maskininlärning.

Format för kursen

Interaktiv föreläsning och diskussion. Många övningar och övningar. Hand-on implementering i en live-lab miljö.

Kursanpassningsalternativ

För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
14 timmar
Waikato Environment for Knowledge Analysis (Weka) är en öppen källkod data mining visualisering programvara. Det tillhandahåller en samling av maskininlärning algoritmer för databeredning, klassificering, klustering och andra data mining aktiviteter.

Denna instruktörledda, live-utbildning (online eller on-site) riktar sig till dataanalytiker och dataforskare som vill använda Weka för att utföra data mining uppgifter.

Vid slutet av denna utbildning kommer deltagarna att kunna:

Installera och konfigurera Weka Förstå Weka miljön och arbetsbanken. Utföra data mining uppgifter med hjälp av Weka.

Format för kursen

Interaktiv föreläsning och diskussion. Många övningar och övningar. Hand-on implementering i en live-lab miljö.

Kursanpassningsalternativ

För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
14 timmar
IBM SPSS Modeler är en programvara som används för data mining och textanalys. Det ger en uppsättning data mining verktyg som kan bygga förutsägande modeller och utföra dataanalytiska uppgifter.

Denna instruktörledda, levande utbildning (online eller on-site) riktar sig till dataanalytiker eller alla som vill använda SPSS Modeler för att utföra data mining aktiviteter.

Vid slutet av denna utbildning kommer deltagarna att kunna:

Förstå grunderna i data mining. Lär dig hur du importerar och utvärderar datakvalitet med Modeller. Utveckla, implementera och utvärdera datamodeller effektivt.

Format för kursen

Interaktiv föreläsning och diskussion. Många övningar och övningar. Hand-on implementering i en live-lab miljö.

Kursanpassningsalternativ

För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
35 timmar
Deltagare som slutför denna instruktörledda, levande utbildning kommer att få en praktisk, verklig förståelse av Big Data och dess relaterade tekniker, metoder och verktyg.

Deltagarna kommer att ha möjlighet att sätta denna kunskap i praktiken genom praktiska övningar. Gruppinteraktion och instruktör feedback utgör en viktig del av klassen.

Kursen börjar med en introduktion till elementära begrepp av Big Data, sedan utvecklas till programmeringsspråk och metoder som används för att utföra Data Analysis. Slutligen diskuterar vi de verktyg och infrastrukturer som möjliggör Big Data lagring, Distributed Processing och Scalakapacitet.

Format för kursen

Delvis föreläsning, delvis diskussion, praktisk praxis och genomförande, tillfällig quizning för att mäta framsteg.
21 timmar
In this instructor-led, live training in Sverige, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
7 timmar
Denna kurs behandlar hur man använder Hive SQL språk (AKA: Hive HQL, SQL på Hive , Hive QL) för personer som extraherar data från Hive
21 timmar
Kunskap upptäckt i databaser (KDD) är processen att upptäcka användbar kunskap från en insamling av data. Verkliga applikationer för denna data mining teknik inkluderar marknadsföring, bedrägeri upptäckt, telekommunikation och tillverkning.

I denna instruktörledda, levande kurs introducerar vi de processer som är inblandade i KDD och utför en serie övningar för att öva genomförandet av dessa processer.

Publiken

Dataanalytiker eller någon som är intresserad av att lära sig hur man tolkar data för att lösa problem

Format för kursen

Efter en teoretisk diskussion om KDD kommer instruktören att presentera verkliga fall som kräver tillämpningen av KDD för att lösa ett problem. Deltagarna kommer att förbereda, välja och rengöra provdata uppsättningar och använda sina tidigare kunskaper om data för att föreslå lösningar baserat på resultaten av sina observationer.
14 timmar
Apache Kylin är en extrem, distribuerad analysmotor för stora data.

I denna instruktörledda live-träning lär deltagarna hur man använder Apache Kylin för att installera en realtidsdatabas.

Vid slutet av denna utbildning kommer deltagarna att kunna:

Använd realtids streamingdata med Kylin Använd Apache Kylin's kraftfulla funktioner, rik SQL gränssnitt, spark cubing och subsecond query latency

anteckningar

Vi använder den senaste versionen av Kylin (baserat på detta skrivande, Apache Kylin v2.0)

Publiken

Stora dataingenjörer [ 0 ] Analysen

Format av kursen

Delvis föreläsning, delvis diskussion, övningar och tung praxis
14 timmar
Datameer är en affärsinformations- och analysplattform byggd på Hadoop Det gör det möjligt för endusers att få tillgång till, utforska och korrelera storskala, strukturerad, semistrukturerad och ostrukturerad data på ett easytouse-sätt I den här instruktionsledda träningspasset lär deltagarna att använda Datameer för att övervinna Hadops branta inlärningskurva, eftersom de går igenom installationen och analysen av en serie stora datakällor Vid slutet av denna utbildning kommer deltagarna att kunna: Skapa, curate och interaktivt utforska en företagsdatasjö Få tillgång till affärsinformationslager, transaktionsdatabaser och andra analytiska butiker Använd en kalkylarks användargränssnitt för att designa ändringsrutiner för databehandling Få tillgång till förbyggda funktioner för att utforska komplexa datarelationer Använd draganddrop-guider för att visualisera data och skapa instrumentpaneler Använd tabeller, diagram, grafer och kartor för att analysera sökresultat Publik Dataanalyser Kursens format Delföreläsning, diskussion, övningar och tung handson-övning .
14 timmar
Data mining är processen för att identifiera mönster i big data med datavetenskapliga metoder som maskininlärning. Använda Excel som en dataanalytisk svit, kan användare utföra datahämtning och analys.

Den här instruktörsledda, liveutbildningen (på plats eller fjärrkontroll) riktar sig till datavetare som vill använda Excel för data mining.

I slutet av denna träning kommer deltagarna att kunna:

- Utforska data med Excel att utföra datahämtning och analys.
- Använd Microsoft-algoritmer för data mining.
- Förstå koncept i Excel data mining.

Kursformat

- Interaktiv föreläsning och diskussion.
- Massor av övningar och träning.
- Praktisk implementering i en levande labbmiljö.

Alternativ för kursanpassning

- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
21 timmar
Dremio är en öppen källkod "self-service data plattform" som påskyndar sökningen av olika typer av datakällor. Dremio integreras med relativa databaser, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch och andra datakällor. Den stöder SQL och tillhandahåller en webb-UI för byggfrågor.

I denna instruktörledda, live-träning lär deltagarna hur man installerar, konfigurerar och använder Dremio som ett enhetligt lager för dataanalysverktyg och de underliggande databaserna.

Vid slutet av denna utbildning kommer deltagarna att kunna:

Installera och konfigurera Dremio Utföra frågor mot flera datakällor, oavsett plats, storlek eller struktur Integrera Dremio med BI och datakällor som Tableau och Elasticsearch

Publiken

Data forskare [ 4 ] Analyst Dataingenjörer

Format av kursen

Delvis föreläsning, delvis diskussion, övningar och tung praxis

anteckningar

För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
14 timmar
Målet med kursen är att göra det möjligt för deltagarna att få en behärskning av hur man arbetar med SQL språket i Oracle databasen för datauttag på mellannivå.
21 timmar
Apache Drill är en schemafree, distribuerad, inmemory columnar SQL-frågemotor för Hadoop, NoSQL och andra Cloud and File Storage-system Kraften i Apache Drill ligger i sin förmåga att ansluta data från flera datalager med en enda fråga Apache Drill stöder många NoSQL-databaser och filsystem, inklusive HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS och lokala filer Apache Drill är open source-versionen av Googles Dremel-system som är tillgänglig som en infrastrukturtjänst som heter Google BigQuery I den här instruktörsledda träningen kommer deltagarna att lära sig grunden för Apache Drill, och utnyttja sedan SQL-förmågan och bekvämligheten för att interaktivt fråga stora data över flera datakällor utan att skriva kod Deltagarna kommer också att lära sig hur man optimerar sina borrfrågor för distribuerat SQL-utförande Vid slutet av denna utbildning kommer deltagarna att kunna: Utför "selfservice" -utforskning på strukturerad och semistrukturerad data på Hadoop Fråga känd såväl som okänd data med SQL-frågor Förstå hur Apache Drills tar emot och utför frågor Skriv SQL-frågor för att analysera olika typer av data, inklusive strukturerad data i Hive, semistrukturerad data i HBase eller MapRDB-tabeller och data som sparas i filer som Parkett och JSON Använd Apache Drill för att utföra onthefly schema upptäckt, kringgå behovet av komplexa ETL och scheman operationer Integrera Apache Drill med BI (Business Intelligence) verktyg som Tableau, Qlikview, MicroStrategy och Excel Publik Dataanalyser Datavetenskapare SQL programmerare Kursens format Delföreläsning, diskussion, övningar och tung handson-övning .
14 timmar
Apache Arrow är ett öppet källkodsdatabehandlingsram. Det används ofta tillsammans med andra datavetenskapliga verktyg för att komma åt olika datalagrar för analys. Det integreras väl med annan teknik som GPU databaser, maskininlärningsbibliotek och verktyg, exekveringsmotorer och datavisualiseringsramar.

I denna instruktörsledda, liveträning på plats, kommer deltagarna att lära sig hur man integrerar Apache Arrow med olika Data Science ramverk för att få tillgång till data från olika datakällor.

I slutet av denna träning kommer deltagarna att kunna:

- Installera och konfigurera Apache Arrow i en distribuerad klustermiljö
- Använd Apache Arrow att komma åt data från olika datakällor
- Använd Apache Arrow att kringgå behovet av att konstruera och underhålla komplexa ETL-rörledningar
- Analysera data över olika datakällor utan att behöva konsolidera dem till ett centraliserat arkiv

Publik

- Datavetare
- Dataingenjörer

Format Kursens

- Delföreläsning, delvis diskussion, övningar och tung praktisk övning

Notera

- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
35 timmar
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information.

High-value government solutions will be created from a mashup of the most disruptive technologies:

- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics

IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured.

But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog.

The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it.

The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge.

Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.).

Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 timmar
Publik

Om du försöker skapa mening med de data du har tillgång till eller vill analysera ostrukturerade data som finns tillgängliga på nätet (som Twitter, Länkade in osv ...) är den här kursen för dig.

Det riktar sig mest till beslutsfattare och människor som behöver välja vilka data som är värda att samla in och vad som är värt att analysera.

Det är inte riktat till personer som konfigurerar lösningen, men dessa människor kommer dock att dra nytta av den stora bilden.

Leveransläge

Under kursen kommer delegaterna att presenteras med fungerande exempel på mestadels open source-teknik.

Korta föreläsningar följs av presentation och enkla övningar av deltagarna

Innehåll och programvara som används

All mjukvara som används uppdateras varje gång kursen körs, så vi kontrollerar de senaste versionerna som möjligt.

Det täcker processen från att skaffa, formatera, bearbeta och analysera data, för att förklara hur man automatiserar beslutsfattande med maskininlärning.
35 timmar
Dag 1 - ger en översikt på hög nivå av Big Data ämnesområden för Big Data . Modulen är indelad i en serie sektioner, var och en åtföljs av en praktisk övning.

Dag 2 - utforskar en rad ämnen som relaterar analyspraxis och verktyg för Big Data miljöer. Det kommer inte in i implementerings- eller programmeringsdetaljer, utan håller istället täckning på en konceptuell nivå, med fokus på ämnen som gör det möjligt för deltagarna att utveckla en omfattande förståelse för de gemensamma analysfunktionerna och funktionerna som erbjuds av Big Data lösningar.

Dag 3 - ger en översikt över de grundläggande och väsentliga ämnesområden som rör plattformsarkitekturen för Big Data lösning. Det täcker Big Data mekanismer som krävs för utveckling av en Big Data lösningsplattform och arkitektoniska alternativ för montering av en databehandlingsplattform. Vanliga scenarier presenteras också för att ge en grundläggande förståelse för hur en Big Data lösningsplattform generellt används.

Dag 4 - bygger vidare på dag 3 genom att utforska avancerade ämnen relaterade till plattformsarkitekturen för Big Data lösning. I synnerhet introduceras och diskuteras olika arkitektoniska lager som utgör Big Data lösningsplattformen, inklusive datakällor, dataintrång, datalagring, databehandling och säkerhet.

Dag 5 - omfattar ett antal övningar och problem utformade för att testa delegaternas förmåga att tillämpa kunskap om ämnen som omfattas dag 3 och 4.
21 timmar
Big Data är en term som avser lösningar avsedda för lagring och bearbetning av stora datamängder. Dessa Big Data lösningar har utvecklats initialt av Go ogle och har utvecklats och inspirerat andra liknande projekt, av vilka många är tillgängliga som open source. R är ett populärt programmeringsspråk inom finansbranschen.
14 timmar
När traditionell lagringsteknik inte hanterar mängden data du behöver lagra finns det hundar av alternativ Kursen försöker att styra deltagarna vad är alternativ för att lagra och analysera Big Data och vad är deras fördelar och nackdelar Kursen är huvudsakligen inriktad på diskussion och presentation av lösningar, även om handson övningar är tillgängliga på begäran .
14 timmar
Kursen är en del av Data Scientist-kompetensuppsättningen (Domain: Data and Technology).
35 timmar
Big data är datauppsättningar som är så omfattande och komplexa att traditionell applikationsprogramvara för databehandling är otillräcklig för att hantera dem. Stora datautmaningar inkluderar fånga data, datalagring, dataanalys, sökning, delning, överföring, visualisering, fråga, uppdatering och informationssekretess.
14 timmar
Vespa en opensource stor databehandling och servering motor skapad av Yahoo Det används för att svara på användarfrågor, göra rekommendationer och tillhandahålla personligt innehåll och annonser i realtid Denna instruktionsledda, levande utbildning introducerar utmaningarna med att betjäna storskaliga data och går deltagare genom att skapa en applikation som kan beräkna svar på användarförfrågningar, över stora dataset i realtid Vid slutet av denna utbildning kommer deltagarna att kunna: Använd Vespa för att snabbt beräkna data (lagra, söka, rangordna, organisera) vid visningstid medan en användare väntar Implementera Vespa i befintliga applikationer med funktionssökning, rekommendationer och anpassning Integrera och distribuera Vespa med befintliga stora datasystem som Hadoop och Storm Publik utvecklare Kursens format Delföreläsning, diskussion, övningar och tung handson-övning .
14 timmar
För att möta tillsynsmyndigheternas efterlevnad kan CSP: er ( Communication ) utnyttja Big Data Analytics som inte bara hjälper dem att uppfylla efterlevnaden utan inom samma projekt kan de öka kundnöjdheten och därmed minska svårigheterna. Eftersom överensstämmelse är relaterad till servicekvalitet som är knuten till ett kontrakt kommer varje initiativ för att uppfylla efterlevnaden att förbättra CSP: s konkurrensfördel. Därför är det viktigt att tillsynsmyndigheterna ska kunna ge råd eller vägleda en uppsättning Big Data analyspraxis för CSP: er som kommer att vara till ömsesidig nytta mellan tillsynsmyndigheterna och CSP: er.

Kursen består av 8 moduler (4 på dag 1 och 4 på dag 2)
35 timmar
Framsteg inom teknik och den ökande mängden information förvandlar hur brottsbekämpning bedrivs. Big Data utmaningar är nästan lika avskräckande som Big Data : s löfte. Att lagra data effektivt är en av dessa utmaningar; att effektivt analysera det är en annan.

I denna instruktörsledda, live-utbildning, kommer deltagarna att lära sig tankesättet att närma sig Big Data teknologier, utvärdera deras påverkan på befintliga processer och policyer och implementera dessa tekniker i syfte att identifiera brottslig verksamhet och förebygga brottslighet. Fallstudier från brottsbekämpande organisationer runt om i världen kommer att undersökas för att få insikter om deras antagande strategier, utmaningar och resultat.

I slutet av denna träning kommer deltagarna att kunna:

- Kombinera Big Data teknik med traditionella datainsamlingsprocesser för att sammanställa en berättelse under en utredning
- Implementera industriella stordatalagrings- och behandlingslösningar för dataanalys
- Förbered ett förslag för antagande av de mest adekvata verktygen och processerna för att möjliggöra en datadriven strategi för brottsutredning

Publik

- Juridiska verkställighetsspecialister med teknisk bakgrund

Kursformat

- Delföreläsning, delvis diskussion, övningar och tung praktisk övning
14 timmar
Denna klassbaserad träning kommer att utforska Big Data . Delegaterna kommer att ha datorbaserade exempel och fallstudieövningar att genomföra med relevanta big data-verktyg
14 timmar
Mål : Denna utbildning syftar till att hjälpa deltagarna att förstå varför Big Data förändrar våra liv och hur det förändrar hur företag ser oss som konsumenter. Faktum är att användare av big data i företag tycker att big data släpper ut en mängd information och insikter som innebär högre vinster, minskade kostnader och mindre risk. Nackdelen var emellertid frustration ibland när man lägger för mycket tonvikt på enskilda tekniker och inte tillräckligt fokuserade på pelarna i big data management.

Deltagare kommer att lära sig under denna kurs hur man hanterar big data med sina tre pelare för dataintegration, datastyring och datasäkerhet för att förvandla big data till verkligt affärsvärde. Olika övningar som utförs i en fallstudie av kundhantering hjälper deltagare att bättre förstå de underliggande processerna.
7 timmar
This instructor-led, live training in Sverige (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
7 timmar
Apache Sqoop är ett kommandoradsgränssnitt för att flytta data från relationsdatabaser och Hadoop. Apache Flume är en distribuerad programvara för hantering av stordata. Med Hjälp av Sqoop och Flume kan användare överföra data mellan system och importera stordata till lagringsarkitekturer som Hadoop.

Denna lärarledda, levande utbildning (på plats eller fjärrkontroll) riktar sig till programvaruingenjörer som vill använda Sqoop och Flume för överföring av data mellan system.

I slutet av denna utbildning kommer deltagarna att kunna:

- Inta stordata med Sqoop och Flume.
- Inför data från flera datakällor.
- Flytta data från relationsdatabaser till HDFS och Hive.
- Exportera data från HDFS till en relationsdatabas.

Kursens format

- Interaktiv föreläsning och diskussion.
- Massor av övningar och praktik.
- Praktisk implementering i en live-lab miljö.

Alternativ för kursanpassning

- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
28 timmar
Talend Open Studio för Big Data är ett öppet ETL-verktyg för bearbetning av stora data. Det inkluderar en utvecklingsmiljö för att interagera med Big Data källor och mål, och köra jobb utan att behöva skriva kod.

Denna instruktörledda, live-utbildning (online eller on-site) riktar sig till tekniska personer som vill implementera Talend Open Studio för Big Data för att förenkla processen med läsning och krunching genom Big Data.

Vid slutet av denna utbildning kommer deltagarna att kunna:

Installera och konfigurera Talend Open Studio för Big Data. Anslut till Big Data system som Cloudera, HortonWorks, MapR, Amazon EMR och Apache. Förstå och installera Open Studio's stora data komponenter och anslutningar. Konfigurera parametrar för att automatiskt generera MapReduce-kod. Använd Open Studio's drag-and-drop gränssnitt för att köra Hadoop jobb. Prototyp Big Data Pipelines. Automatisera stora dataintegrationsprojekt.

Format för kursen

Interaktiv föreläsning och diskussion. Många övningar och övningar. Hand-on implementering i en live-lab miljö.

Kursanpassningsalternativ

För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
21 timmar
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment

Course goal:

Getting knowledge regarding Hadoop cluster administration

Last Updated:

Kommande Big Data Kurser

Helg Big Data kurs, kvällBig Data utbildning, Big Data bootcamp, Big Data instruktörledd, Helg Big Data utbildning, Kväll Big Data kurs, Big Data coaching, Big Data instruktör, Big Data tränare, Big Data kurs, Big Data klasser, Big Data on-site, Big Data privata kurser, Big Data en till en utbildning

Rabatterade kurser

Nyhetsbrev & Erbjudanden

Anmäl dig till vårt nyhetsbrev så får du information om aktuella rabatter på öppna kurser. Vi respekterar ditt privatliv, så att din e-postadress kommer endast att användas för sändning vårt nyhetsbrev. När som helst kan du ändra inställningarna eller helt avbeställa den.

Våra kunder

is growing fast!

We are looking to expand our presence in Sweden!

As a Business Development Manager you will:

  • expand business in Sweden
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

This site in other countries/regions