Спрос: как найти тот самый баланс
29.11.2023
503
Команда клиента работала в Excel и не могла точно прогнозировать продажи на разных уровнях агрегации. Это приводило к избытку или нехватке запасов в магазинах, на складах и распределительных центрах, а в конечном итоге — убыткам.
Рассказываем, как повысили точность прогнозирования и разработали решение, которое справляется с обработкой большого массива данных.
Мы не упоминаем в тексте название компании, чтобы сохранить конфиденциальность нашего клиента.
Клиент обратился к нам в ноябре 2023 года. На тот момент у заказчика было больше 100 торговых точек по всей России и несколько распределительных складов, а линейка товаров состояла из более, чем 15000 SKU. Заказчик четко понимал, что работа в Excel стала узким местом в планировании с учетом масштабов бизнеса и сложной продуктовой матрицы.
Мы провели несколько встреч с участием наших методологов, чтобы опросить команду и детально изучить, как они планируют продажи. Выяснили, что аналитики проводят расчет по товарным группам на всю сеть, используя формулы и функции Excel. При этом, клиент не мог получить точную информацию по спросу на уровне SKU или понять потребность конкретного региона. Excel не справлялся с обработкой таких объемов данных, и любое изменение требовало ручной корректировки, длительного обновления и проверки.
Почему клиенту нужна агрегация и дезагрегация данных? Компания работает по модели, когда за каждым менеджером закреплена конкретная территория или клиент. Данные по регионам нужны для того, чтобы точно определить нагрузку на распределительные центры и спланировать расходы на закупку.
Дезагрегация поможет оптимально спланировать запасы по конкретным товарам. В этом случае при прогнозе для группы «диваны» в 100 штук клиент будет точно знать, сколько диванов конкретных моделей нужно доставить на склад и в торговую точку.
Возможность представления данных в различных разрезах/ уровнях агрегации — это одна из задач в рамках прогнозирования, поэтому решить эту проблему изолированно не получится. Мы начали работу с того, что детально изучили структуру компании: собрали и проанализировали информацию о том, как работают продажи, пополняются запасы и как устроена логистика. На основе наших выводов запустили создание цифрового двойника предприятия — виртуального образа, который точно отражает все бизнес-процессы.
Подключили базу PostgreSQL, чтобы система могла быстро обрабатывать информацию клиента и выполнять любые расчеты. PostgreSQL оптимизирована для работы с большими наборами данных и может легко масштабироваться. Она поддерживает параллельную обработку запросов, что позволяет запускать несколько операций одновременно. А чтобы не перегружать инфраструктуру клиента, перенесли все данные на сервера Yandex Cloud.
Основное внимание уделили выбору правильных методов прогнозирования. Для этого наши аналитики подбирали и тестировали комбинацию из 5-6 подходов, которая должна была соответствовать потребностям и специфике клиента.
2. Следующим этапом мы написали микросервис для очистки истории продаж клиента и подключили его к системе.
3.Он очистил цифры от всплесков и факторов, влияющих на спрос, и мы получили «очищенную» историю.
4. Затем выбрали несколько методов для построения прогноза: метод скользящей средней, взвешенной скользящей средней, метод наименьших квадратов, метод сглаживания по восходящему среднему и другие.
Запускали статистический прогноз в модели и сравнивали результаты с фактом за прошлые периоды до тех пор, пока не выявили комбинацию, которая дает самый точный результат — то есть, минимально отклоняется от фактических данных клиента.
После того, как наша команда сформировала статистический прогноз, мы запустили комплексную доработку с участием отделов на стороне клиента.
Отдел продаж внес корректировки, добавив информацию о новых каналах сбыта и расширении географии. Менеджеры по категориям внесли изменения, учитывая запуск новинок и адаптацию жизненного цикла продукта. Маркетинг предоставил информацию о предстоящих акция, а финдепартамент скорректировал прогноз с учетом изменения цен и себестоимости товаров.
Все корректировки объединили в финальный прогноз, утвержденный на S&OP встрече клиента. В результате клиент получил несколько вариантов плана после корректировки каждого участника и утвердил финальную версию.
❌ Было: Из-за сложных алгоритмов и большого объема данных специалисты не могли очистить историю продаж в Excel. Это приводило к ошибкам в планировании: вместо нужных 100 единиц товара план мог быть установлен на 150 или на 50 единиц. Такие расхождения влекли за собой лишние запасы на складе или упущенные возможности продаж.
✅ Стало: Система сама очищает данные и поддерживает функцию точечной ручной настройки — чтобы учесть все нюансы истории продаж.
❌ Было: Из-за большого объема данных прогноз считали только по товарным группам на уровне всей сети. Неточности в прогнозе приводили к дефициту или избытку товаров на складах, и компания несла убытки.
✅ Стало: Точность прогноза продаж повысилась с 93,4 до 97,2%. Клиент может получить аналитику по каждому уровню агрегации и оптимально планировать запасы.
Мы составили клиенту прогнозы на будущий период: краткосрочный, среднесрочный и долгосрочный, что позволило ему лучше управлять финансами и буфером запасов. Разработка MVP заняла у нас 2 месяца.
Мы также запустили процесс S&OP и создали в системе удобные инструменты для быстрой корректировки и подтверждения актуальных данных. Теперь все участники процесса могут быстрее валидировать и всегда иметь доступ к свежей информации о S&OP. Данные автоматически обновляются и синхронизируются во всех системах одновременно, что значительно экономит время, средства и нервы клиента.
В планах компании — развитие системы для интеграции продаж, поставок и производства.
Что еще почитать
Подписывайтесь, чтобы читать новости и советы по оптимизации бизнеса в своей почте
Разработали решение, которое справляется с обработкой большого массива данных
ПодробнееРазработали решение, которое справляется с обработкой большого массива данных
Подробнее