Big Data con Hadoop
Disponibile su prenotazione.
Contenuto
Hadoop è un progetto software open source che permette di analizzare enormi quantità di dati distribuiti su cluster di computer e file system differenti. È progettato per essere completamente scalabile da un singolo server fino a migliaia di macchine. Hadoop si occupa anche di gestire problemi e guasti a livello applicativo piuttosto che hardware e questo garantisce migliori e più accurate prestazioni. Hadoop è mantenuto da The Apache Software Foundation e si basa sul linguaggio di programmazione Java. Questo libro è dedicato a chi non conosce Hadoop ma ha la necessità di lavorare e gestire Big Data. L'approccio è sia teorico che pragmatico e tutoriale. Si parte dall'installazione e dalla configurazione di Hadoop, per passare alla progettazione, l'implementazione e la gestione di sistemi complessi attraverso le varie componenti del software tra cui HDFS, YARN e MapReduce. Passo dopo passo il lettore scoprirà i componenti di Hadoop imparando a utilizzarli nella costruzione di soluzioni in grado di ottenere il massimo dai dati collezionati.
|