Sommario:

Quali sono i principali parametri di configurazione che l'utente deve specificare per eseguire il lavoro MapReduce?
Quali sono i principali parametri di configurazione che l'utente deve specificare per eseguire il lavoro MapReduce?

Video: Quali sono i principali parametri di configurazione che l'utente deve specificare per eseguire il lavoro MapReduce?

Video: Quali sono i principali parametri di configurazione che l'utente deve specificare per eseguire il lavoro MapReduce?
Video: Programmazione MapReduce in Python con Pydoop 2024, Maggio
Anonim

I principali parametri di configurazione che gli utenti devono specificare nel framework “MapReduce” sono:

  • Lavori posizioni di input nel file system distribuito.
  • Lavori posizione di output nel file system distribuito.
  • Formato di input dei dati.
  • Formato di output dei dati.
  • Classe contenente la funzione map.
  • Classe contenente la funzione di riduzione.

Quali sono i principali parametri di configurazione di un programma MapReduce?

I principali parametri di configurazione nel framework “MapReduce” sono:

  • Posizione di input dei lavori nel file system distribuito.
  • Posizione di output dei lavori nel file system distribuito.
  • Il formato di input dei dati.
  • Il formato di output dei dati.
  • La classe che contiene la funzione map.
  • La classe che contiene la funzione reduce.

Ci si potrebbe anche chiedere, quali sono i parametri di mappatori e riduttori? I quattro parametri per i mappatori sono:

  • LongWritable (ingresso)
  • l'immissione di testo)
  • testo (output intermedio)
  • IntWritable (output intermedio)

Inoltre, la domanda è: quali sono i componenti principali del lavoro MapReduce?

  • Classe driver principale che fornisce i parametri di configurazione del lavoro.
  • Classe Mapper che deve estendere org. apache. hadoop. Riduci mappa. Mapper e fornisce l'implementazione per il metodo map().
  • Classe riduttore che dovrebbe estendere org. apache. hadoop. Riduci mappa. Classe riduttore.

Che cos'è il partizionatore e come aiuta nel processo di lavoro di MapReduce?

partizionatore in MapReduce lavoro l'esecuzione controlla il partizionamento delle chiavi delle uscite mappa intermedie. Con il aiuto della funzione hash, la chiave (o un sottoinsieme della chiave) deriva il partizione . I record che hanno lo stesso valore chiave vanno nello stesso partizione (all'interno di ogni mappatore).

Consigliato: