Въпрос: Hadoop за всички ли е?
A: Ресурсът за обработка на данни от Apache с отворен код и свързаните с него инструменти придобиват влияние в света на големите данни. Но в надпреварата за приемане на по-нови, по-модерни ИТ решения компаниите се питат дали Hadoop е универсален инструмент, който трябва да се прилага широко в процесите на големи данни и анализи.
В действителност има няколко съображения дали дадена система ще се възползва много от прилагането на Hadoop. Единият е дали големите данни са от значение за индустрията. С други думи, дали бизнесът ще работи върху придобиване и анализ на изключително големи масиви от данни, набори от данни, по-големи от това, което може да се анализира с помощта на традиционна релационна база данни.
Освен това компаниите могат да избират между Hadoop и други собствени инструменти, които може да изискват по-малко вътрешни технически умения. Някои други технологични компании изграждат подобни инструменти за големи данни, които може да имат по-интуитивни интерфейси или преки пътища, за да позволят на по-малко опитни потребители да правят повече с големи данни.
В същото време съществува консенсус, че повечето проекти с големи данни могат да се възползват от Hadoop с достатъчно администрация. Инструменти като дизайн на склад на Apache Hive и синтаксис за програмиране на Apache Pig за големи данни разширяват това, което Hadoop може да направи. Други постижения, като Hadapt и MapR, правят синтаксиса и използването на Hadoop по-прозрачни за по-голямо разнообразие от потребители, или с други думи, започвайки да премахват проблема с „techiness“.
Като цяло бизнесът трябва да гледа колко големи данни използва и откъде идват тези данни. Ръководителите и ръководителите трябва да обмислят кой ще работи по включените ИТ проекти и техните умения и опит. Те трябва да разберат разликата между прилагането на различни инструменти за големи данни. Това ще помогне на лидерските екипи да разберат дали Hadoop е подходящ за техните проекти.
