Co je Apache Hadoop?

Apache Hadoop je název pro sadu velkých datových algoritmů, distribuovaného úložiště a distribuovaného softwaru pro zpracování dat vytvořeného Apache Software Foundation. Je navržen tak, aby podporoval velkoobjemové aplikace datových služeb; automatické zpracování chyb hardwaru bez ztráty služby.

Hadoop používá distribuovaný souborový systém známý jako HDFS a software pro zpracování velkých datových souborů známých jako MapReduce. Extrémně velké soubory jsou rozděleny na kousky, obvykle 64 nebo 128 MB. Software je většinou napsán v jazyce Java, s kódem nižší úrovně napsaným v jazyce C.

Apache server, velká data, servisní, softwarové podmínky