Spark широко используем при работе с большими данными. Для нас он выступает как инструмент, который закрывает определенный набор задач, не более. Если посмотреть на схему с архитектурой системы, то он попадает в блоки DataOps и ModelOps. В следующей статье, мы уделим больше внимание процессу подготовки данных и обучению моделей, а также покажем, где мы используем Spark.
В том то и дело, что пользователь системы не должен задумываться о таких вопросах как переобучение моделей. Сервисы, с которыми взаимодействуют пользователи, выступают в роли виртуальных помощников для принятия решений.