Мета роботи – дослідження процесу розгортання розподіленої обчислювальної системи реального часу на базі Apache Spark. Розглядається архітектура та принципи роботи інструментарію. Досліджуються механізми розгортання та конфігурування інструментарію на стаціонарному комп’ютері. Вивчаються закономірності та специфіка роботи з Big Data. Виконується огляд інструментів моніторингу процесів, які мають перебіг у кластері та стратегії оптимізації Apache Spark у середовищі Hadoop.