Эффективность – не равно высокая производительность, и многим вендорам стоит принять это во внимание. Часто поставщики решений класса Process Mining призывают компании сначала исследовать процессы и только потом погружаться до уровня мельчайших бизнес-действий. Однако, как показывает практика, описанный подход не приносит результата в тех случаях, когда исследуются большие и сложные БП, состоящие из множества рутинных и повторяющихся операций.
Типичный сценарий
Проведём мысленный эксперимент. В одном глобальном процессе задействованы три подразделения, расположенные в разных частях мира. В рамках выполнения БП одна команда принимает результат работы другой, что формирует цепочку последовательных действий. После нескольких месяцев наблюдения и глубинного анализа выяснилось, что первая группа является наиболее эффективной, так как ей удавалось закрывать пул задач в максимально сжатые сроки. На выходе эта команда получала наибольшее количество благодарностей и наград, в то время как вторая и третья были рекомендованы к оптимизации и признаны «узкими местами» процесса.
На первый взгляд, сформулированные гипотезы кажутся логичным и обоснованными, но реальность оказалась более интересной. При проведении углубленного анализа выяснилось, что вторая команда принимала от первой (якобы наиболее эффективной) некачественный результат и была вынуждена совершать огромное количество исправлений и реворков. Дополнительной проблемой стала передача неполного объёма информации по конкретным задачам. Таким образом, стало очевидно, что первое подразделение не соблюдало инструкции, а также ставило во главу угла скорость работы, а не её качество.
Аналитика в вакууме не работает
Какой вывод можно сделать из эксперимента? Внимание, сосредоточенное на внедрении только одной ИТ-системы, может привести к ошибочным выводам и неправильной интерпретации полученных данных. К примеру, обособленная проверка соответствия с помощью Process Mining не будет полностью жизнеспособным подходом. Тем не менее именно так поступает большинство компаний в последние годы.
Типовой регламент выглядит так: сначала используется процессная аналитика, «вытаскивающая» данные из информационных систем с целью обнаружения «узких мест» (если вернуться к эксперименту, им будет работа второй команды). Затем на «сломанных» участках в дело включается Task Mining. С помощью аналитики операций ведётся мониторинг и микроконтроль. В результате описанных действий вторая группа была отнесена к кластеру неэффективных, а руководство приняло решение об ускорении их работы и оптимизации. Однако в реальной конфигурации это подразделение не является проблемным, и сосредоточение на исправлении их «ошибок» – потеря времени и движение в сторону от истинных «бутылочных горлышек».
Подмена причин на следствие
В конечном итоге обособленное использование технологий, как показал эксперимент, приводит к переносу проблем от одной команды к другой и не даёт бизнесу полной прозрачности процессов, операций и их взаимосвязи. В более широком масштабе компании будут страдать от значительных затрат, связанных с неэффективными БП и непрерывной ротацией кадров.
Подобные случаи регулярно происходят по всему миру. Руководители часто применяют неверные решения для мелких проблем, упуская из виду более важные вопросы. Важно понимать, что Process Mining и Task Mining не должны использоваться изолированно друг от друга.
По материалам Processmaker