Hadoop, часть 3: Pig, обработка данных
В предыдущей публикации мы подробно рассмотрели процесс сбора данных при помощи специализированного инструмента Flume. Но чтобы полноценно работать с информацией, мало ее просто собрать и сохранить: ее нужно обработать и извлечь из нее нечто нужное и полезное. Для обработки данных в Hadoop используется технология MapReduce.Читать дальше →