'
Cloudera tilbyder virksomheds- og ekspressversioner af sin Cloudera-distribution, inklusive Apache Hadoop. Clouderas syn på vigtigheden af kvalificeret big data talent skinner gennem elementerne i dets certificering. Det tilbyder Cloudera Certified Hadoop Administrator (CCAH) certificering til professionelle, der er ansvarlige for at konfigurere, implementere, vedligeholde og sikre Apache Hadoop-klynger til produktion eller anden virksomhedsbrug. Gennem denne certificering kan man forvente at kende de metoder, der bruges af de bedste Apache Hadoop-administratorer.
For at vide om de generelle aspekter af CCAH kan du henvise til dette link.
CCAH undersøgelsesmønster til CCAH & CCAH opgraderingseksamen:
Eksamenskode: CCA-500
Antal spørgsmål: 60
Varighed: 90 minutter
Bestået score: 70%
Tilgængelige sprog: Engelsk, japansk (kommende)
Eksamensgebyr: USD $ 295
Eksamensmønsteret er indstillet på en sådan måde, at det fokuserer på at demonstrere kandidatens tekniske viden, dygtighed og evne til at konfigurere, implementere, vedligeholde og sikre en Apache Hadoop-klynge og de økosystemprojekter, der omfatter Enterprise Data Hub.
CCAH opgraderingseksamen:
Eksamenskode: CCA-505
typer rammer i selen
Antal spørgsmål: Fire. Fem
Varighed: 90 minutter
Bestået score: 70%
hvordan man indstiller classpath i linux
Sprog: Engelsk, japansk (kommende)
Pris: USD $ 125
Mønsteret for CCAH og CDH5 forbliver det samme for begge. Bemærk også, at Hadoop-økosystemet ikke længere behandles separat som deres eget afsnit, men er integreret i hele eksamen. Både CCA – 500 og CCA – 505 deler den samme andel af varer pr. Sektion.
Lad os se på eksamensmønsteret for CCA - 500
HDFS - 17%
- Funktion af HDFS-dæmoner
- Normal drift af en Apache Hadoop-klynge, i datalagring såvel som i databehandling.
- Nuværende funktioner i computersystemer, der motiverer et system som Apache Hadoop.
- Hovedmål for HDFS Design.
- Identificer passende brugstilfælde til HDFS Federation i et givet scenario.
- Komponenter og dæmon i en HDFS HA-Quorum-klynge.
- Analyser rollen som HDFS-sikkerhed (Kerberos).
- Bedste dataserialiseringsvalg for et givet scenario.
- Fil læs og skriv stier.
- Kommandoer til at manipulere filer i Hadoop-filsystemskallen.
GAR og MapReduce version 2 - 17%
- Opgradering af en klynge fra Hadoop 1.0 til Hadoop 2.0.
- Implementer MRv2 / GAR med alle GAR-dæmoner.
- Designstrategi til MRv2.
- Sådan håndterer YARN ressourcetildelinger.
- Workflow af MapReduce job, der kører på YARN
- Bestem hvilke filer der skal ændres, og hvordan man migrerer en klynge fra MRv1 til MRv2, der kører på YARN.
Hadoop klyngeplanlægning - 16%
- Ting, du skal overveje, når du vælger hardware og operativsystemer til en Apache Hadoop-klynge.
- Få indsigt i valgene til valg af et operativsystem.
- God viden kernetuning og diskswapping.
- Opret en hardwarekonfiguration, der passer til et scenario.
- Identificer de økosystemkomponenter, som klyngen har brug for til at opfylde SLA, i et givet scenario.
- Find ud af specifikationerne for arbejdsbyrden, herunder CPU, hukommelse, opbevaring, disk I / O.
- Forstå netværksbrug i Hadoop og kom med et netværksdesignkomponenter til et givet scenario.
Hadoop Cluster Installation og Administration - 25%
- Hvordan klyngen håndterer disk- og maskinfejl i et givet scenario.
- Analyser logningskonfiguration og dens filformat.
- Grundlæggende om Hadoop-målinger og klynge-wellnessovervågning.
- Kend funktionen og formålet med tilgængelige værktøjer til klyngeovervågning.
- Installer alle økosystemkomponenterne i CDH 5 som Impala, Flume, Oozie, Hue, Cloudera Manager, Sqoop, Hive og Pig.
- Se funktionen og formålet med tilgængelige værktøjer til styring af Apache Hadoop-filsystemet.
Ressourcestyring - 10%
- Forstå det overordnede designaspekt og mål for hver Hadoop-planlægning.
- Ved, hvordan FIFO Scheduler tildeler klyngeressourcer.
- Bestem, hvordan Fair Scheduler tildeler klyngeressourcer under YARN.
- Bestem, hvordan kapacitetsplanlæggeren tildeler klyngeressourcer.
Overvågning og logning - 15%
- Funktioner og funktioner i Hadoop's metriske samling.
- Analyser NameNode og JobTracker Web UI'er.
- Overvåg klyngedæmoner.
- Identificer og overvåg CPU-brug på masternoder.
- Vide, hvordan man overvåger swap- og hukommelsesallokering på alle noder.
- Se og administrer Hadoop's logfiler.
- Fortolke en logfil.
Bemærk: De ovennævnte emner er mere vejledende for, hvordan man forbereder sig til eksamen. Cloudera anbefaler, at en kandidat grundigt forstår målene for hver eksamen og bruger de ressourcer og uddannelseskurser, der anbefales på disse sider til at få en grundig forståelse af vidensdomænet relateret til den rolle, eksamen vurderer.
Øv testoplysninger
Cloudera-certificeringstest (betalt) er designet til at simulere CCAHs eksamensmønster. Det anbefales at tage denne praksisprøve op, inden du går op til eksamen for at evaluere dit niveau af forberedelse.
Her er hvad du kan forvente i denne øvelsestest:
- 60 spørgsmål, der ligner Cloudera-certificeringsspørgsmål.
- Detaljerede forklaringer på korrekte / forkerte svar for at forstå begreberne.
- Øvelsestest oprettes af den samme ansvarlige for at skabe spørgsmål til Cloudera-certificeringseksamen.
- Undersøg når som helst og hvor som helst gennem smartphones og tablets.
- Prøv en gratis Practice Test-demo, der indeholder 15 spørgsmål fra CCAH.
Du kan tjekke retningslinjerne for praksisprøven her.
Andre studievejledninger til optagelse af Cloudera-certificeret administrator for Apache Hadoop (CCAH)
java hvordan man afslutter programmet
Er du klar til at tage Cloudera-certificeret administrator til Apache Hadoop (CCAH) - CCA 500? Her kan du tilmelde dig denne eksamen.
Har du et spørgsmål til os? Nævn dem i kommentarfeltet, så vender vi tilbage til dig.
Relaterede indlæg:
Alt om Cloudera-certificeret udvikler til Apache Hadoop (CCDH)
Sådan bliver du Hadoop-administrator