Съдържание:
Големите данни, завладяващото име за огромни обеми от структурирани, неструктурирани или полуструктурирани данни, е, че е трудно да се заснемат, съхраняват, управляват, споделят, анализират и визуализират, поне като се използват традиционните приложения за база данни и софтуер. Ето защо технологиите за големи данни имат потенциал да управляват и обработват огромни обеми данни ефективно и ефикасно. И именно Apache Hadoop предоставя рамката и свързаните с тях технологии за обработка на големи масиви от данни в групи от компютри по разпределен начин. Така че, за да разберете наистина големи данни, трябва да разберете малко за Hadoop. Тук ще разгледаме основните термини, които ще чуете по отношение на Hadoop - и какво означават те.
Уебинар: Big Iron, Запознайте се с големи данни: Освобождаване на данни от мейнфрейм с Hadoop & Spark Регистрирайте се тук |
Но първо, погледнете как работи Hadoop
Преди да влезете в екосистемата Hadoop, трябва да разберете ясно две основни неща. Първият е как се съхранява файл в Hadoop; второто е как се обработват съхраняваните данни. Всички технологии, свързани с Hadoop, работят главно в тези две области и го правят по-лесен за използване. (Вземете основите на това как работи Hadoop в Как Hadoop помага за разрешаването на проблема с големи данни.)
Сега, към условията.