Вопрос профессиональной работы с 1С логами, журналами MS SQL и анализом собранной информации

В принципе картина ясна, много кто хочет, но до конца не понимает что да как, я в том числе… если lustin и компания, чем нибудь порадуют, будет очень хорошо, видел их посты на хабре ещё с 2012 года, таки люди давно варятся в этом, должно быть понимание…

Продолжая ковыряние ELK стека добрался до вопроса:

  • итак разработали метрики и способы их сбора
  • сохранили наши *.yml в git
  • взяли скрипты установки (metricbeat, и др… ) установили , настроили и запустили сборщики.
  • Данные посыпались в elastik.
    А какая концепция хранения, развертывания и автоматического подключения дашбордов?

И Что вообще можно почитать по работе с данными (что, зачем и в каком случае делать).
Какие паттерны анализа и для чего использовать?

Народ, помогите советом, Несколько файлов с логами от 1с (ТЖ), prhost ragent rmngr: 1 я сделал на каждый файл по инпуту в логстэше, теперь не могу понять как их в фильтрах склеивать? например по полю clientID …да в принципе по любому полю… то что есть в доке это пример шаблона по 1 строчке Сислога, считаю не просто мало, а вообще ни о чём!