Musi mieć Narzędzia rozwoju skrypty Dla Apache Software Foundation
Apache Flink została stworzona do pracy z Apache Hadoop i pochodzi z Java i Scala wiązań. Flink jest potężną platformą, która pozwala zarządzać klastrami serwerów i wykorzystywać je przetwarzać i analizować duże ilości danych w sposób skuteczny i szybki...
Apache Flume został opracowany jako system, który zbiera logi pośrednika z jednej aplikacji i dostarcza go do innego.Powinien działać z większością aplikacji Java i programistów powinien mieć pewność, Flume są chronione przed utratą danych i awarii...
FOP oznacza " F ormatting O bjects P rocessor" i biblioteki Java, które można odczytać danych XSL-FO i wyjście IT w innym formacie.XSL-FO jest w formacie XML, w których informacje o drukarce przechowywane są gotowe, ale także wspieranie formatowanie...
Apache Geronimo ma jedne z najlepszych narzędzi dla przedsiębiorstw znajdujących się w społeczności open source Java i siatki je razem w jednym czasie pracy serwera, gotowe do wdrożenia w środowiskach produkcyjnych.Geronimo pochodzi z integracji Eclipse,...
Giraph jest odpowiedzią Apache do potrzeby rynku deweloperskim za wykresu społecznych narzędzi do analizy danych.Apache Giraph jest w stanie przyjąć wzajemnie powiązanych danych społecznych i prowadzenie różnych analizę danych i przetwarzania operacji na...
Apache Góra ma na celu stworzenie wspólnej płaszczyzny, na której programiści mogą tworzyć narzędzi, które mogą obsługiwać duże ilości informacji, niezależnie od ich podstawowej jednostki pamięci. Góra jest napisany w Javie i został stworzony jako...
Apache Hadoop został pierwotnie opracowany przez Yahoo, a projekt jest połączeniem pomiędzy poprzednimi wspólnych repo Apache Hadoop rdzenia i Apache Hadoop. Projekt Hadoop zyskał dużo rozgłos dzięki jego świetne wyniki w realizacji wielu serwera...
Apache HBase została wzorowana wewnętrznego systemu bazodanowego BigTable Google'a i został zbudowany na szczycie słynnego Apache Hadoop ramowej przetwarzania danych i rozproszonych silnika obliczeniowego. Ponieważ został zbudowany na Hadoop,...
Apache Helix może być używany do zarządzania dużych zasobów obliczeniowych, hostowanych na infrastrukturę w chmurze lub w klastrach obliczeniowych.Jest on zbudowany na innym projekcie Apache, Heca w zoo , i zapewnia ogólny interfejs do zarządzania...
Apache Hive został opracowany jako Apache Hadoop sub-projektu dla zapewnienia administratorów Hadoop z łatwym w użyciu, sprawny język zapytań do swoich danych.Z tego powodu, Hive został opracowany od początku do pracy z ogromną ilością informacji dla...