Hadoop používá distribuovaný souborový systém známý jako HDFS a software pro zpracování velkých datových souborů známých jako MapReduce. Extrémně velké soubory jsou rozděleny na kousky, obvykle 64 nebo 128 MB. Software je většinou napsán v jazyce Java, s kódem nižší úrovně napsaným v jazyce C.
Apache server, velká data, servisní, softwarové podmínky