Масштабирование хранилищ и вычисления с Hadoop

Hadoop обеспечивает возможность распределенного хранения и фреймворк для анализа и преобразования очень больших наборов данных с помощью парадигмы MapReduce. Hadoop секционирует данные и производит вычисления среди тысяч хостов, кроме того, выполняет вычисления в параллели близкой к своим данным. Кластер Hadoop измеряет вычисление мощности, объема хранилища и пропускной способности ввода-вывода, просто добавляя свойство серверов. Hadoop является проектом Apache Software Foundation, объединяет сотни разработчиков, и сотни организаций по всему миру создают отчеты с помощью Hadoop. В этой презентации представлен обзор проектов семьи Hadoop с акцентом на решения для распределенного хранения данных.