Publikacje firmowe
Podejmowanie decyzji biznesowych to proces niezwykle złożony, który wymaga od osób podejmujących te decyzje przeanalizowania wielu aspektów aktualnej sytuacji, w której znajduje się firma. Większość informacji o stanie firmy to tak zwane informacje ilościowe zaczynając od prostej wielkości sprzedaży, stanu zapasów czy wielkości produkcji, kończąc na informacjach bardzo szczegółowych typu związki między różnymi wartościami np. sprzedaż poszczególnych grup asortymentowych w zależności od kanału sprzedaży lub wielkości czy położenia sklepu bądź zależności między ceną towaru a jego sprzedażą ewentualnie wielkością zapasów magazynowych. Dane ilościowe możliwe do wyekstrahowania z systemów informatycznych powinny pozwolić osobom decyzyjnym na wywnioskowanie związków przyczynowo skutkowych między nimi i ułatwić na tej podstawie podjęcie właściwych biznesowo decyzji.
Pod pojęciem Business Intelligence rozumie się najczęściej system informatyczny, który pozwala na łatwe sięganie do posiadanych danych, często zapisanych w różnych miejscach, który pozwala przeanalizować i często zwizualizować posiadaną informację, włącznie z jej drążeniem, tak by umożliwić przekształcenie informacji w wiedzę, a wiedzy w skuteczne decyzje biznesowe. Spróbuję opisać co składa się taki system i jakie są jego podstawowe cechy.
Hurtownia danych to z punktu widzenia technicznego normalna baza danych pracująca zazwyczaj na jednym z ogólnie dostępnych tzw. silników SQL (MSSQL, Oracle, PostgreSQL bądź inny) zbudowana merytorycznie w taki sposób, aby służyć jako źródło dla systemów wspierania decyzji. Podstawowymi cechami determinującymi to, że dana baza jest hurtownią jest integracja w niej wszystkich źródeł danych występujących w firmie wraz z ich ujednoliceniem, brak działań operacyjnych na hurtowni oraz optymalizacja szybkości działania pod kątem przygotowania odpowiedzi na zapytania.
Integracja i ujednolicenie różnych źródeł polega np. na tym, że ten sam klient, który występuje w kilku różnych systemach obsługujących operacje bieżące (w sklepie internetowym, w programie do obsługi reklamacji czy w systemie zarządzającym trasami kurierów) często pod różnymi identyfikatorami, w hurtowni musi wystąpić jeden raz i wszystkie operacje związane z tym klientem z różnych systemów muszą się poprawnie złączyć z tym jednym rekordem klienta. Jest to cecha bardzo podobna do jednego z krytycznych warunków poprawnego działania strategii omnichannel, jednak w hurtowni danych to ujednolicenie często uwzględnia dodatkowe informacje o kliencie nie występujące w systemach transakcyjnych.
Brak działań operacyjnych to cecha, która gwarantuje, że hurtownia danych jest wyłącznie kopią danych z systemów transakcyjnych i poza informacjami, które są zapisywane w hurtowni w czasie jej cyklicznej aktualizacji i ewentualnie wstępnej agregacji nic nie jest do niej dopisywane. Żaden system poza procedurami zasilającymi hurtownię nie może w niej dokonywać zmian (np. zmienić status przesyłki kurierskiej). Oczywiście w hurtowni mogą znajdować się dane wykorzystywane do prezentacji biznesowych modyfikowane przez systemy Business Intelligence, kostki OLAP (Online Analytical Processing) czy systemy drążenia danych (data mining), ale wyłącznie jako dane pośrednie do prezentacji analiz biznesowych, a nie dane źródłowe.
Klasyczne narzędzia do analizy danych bazują na prezentacji biznesowych wskaźników KPI w postaci liczbowej, najczęściej jako tabele Excela (który jest najpopularniejszym narzędziem prezentacyjnym) bądź w narzędziach o podobnej funkcjonalności. Często efektem są tabele przestawne czy kostki OLAP, które pozwalają na rozwijanie i zagłębianie się w danych od postaci najbardziej zagregowanej schodząc w kierunku źródeł, czasem bezpośrednio do pojedynczej transakcji. Trochę inne podejście oferuje tzw. drążenie danych, które polega na szukaniu zależności między zdarzeniami, które wystąpiły w przedsiębiorstwie i ich odbicie zostało zapisane w systemach transakcyjnych a potem w hurtowni. Do metod drążenia danych należą różnego rodzaju analizy statystyczne i systemy samouczące, które zazwyczaj operują na liczbach i takie wyniki zazwyczaj też generują (np. prawdopodobieństwo sprzedaży produktu z danej grupy asortymentowej w sklepie konkretnej kategorii wynosi tyle albo szacunkowa sprzedaż utracona wzrosła lub spadła w ciągu ostatniego miesiąca) oraz metody wizualizacji danych. Bardzo często używanym wskaźnikiem KPI jest OTIF, czyli wskaźnik (raport, analiza), pozwalający ustalić wiarygodność dostawców przez pryzmat terminowości i zgodności dostaw z zamówieniami (tu warto wspomnieć, że nie tylko opóźniona bądź niepełna dostawa jest dla odbiorcy problemem - nadmierna bądź przedwczesna dostawa również może sprawiać sporo problemów w magazynie).
Od dawna wiadomo, że jeden wykres mówi więcej niż tysiąc słów czy liczb. Kokpit menedżerski to narzędzie prezentacji danych, które pozwala na łączenie ze sobą prezentacji zarówno graficznych jak i liczbowych, w tym zarówno prostych tabel jak i tabel przestawnych. Istotą kokpitu jest ergonomia w dostępie do wyników. Osoba podejmująca decyzję powinna móc bez trudu na każdym poziomie zagłębiania się w danych przechodzić między ich graficzną i liczbową prezentacją próbując znaleźć związek przyczynowo skutkowy tak, by podjąć właściwą decyzję strategiczną dotyczącą działania swojej firmy.
Big Data to określenie, które wypłynęło poza klasyczny obszar Business Intelligence przede wszystkim ze względów technologicznych. Jednym z podstawowych kwestii tego, że dla zestawu danych wcześniej ukrywanych pod hasłem Hurtownia Danych stworzono nową nazwę jest wielkość przetwarzanego zbioru danych (stąd nazwa Big Data). Druga kwestią jest różnorodność danych, różne miejsce ich pochodzenia (nie tylko wewnętrzne systemy firmowe ale i źródła zewnętrzne jak choćby analiza trendów zapytań Google czy rejestracja bądź prognoza pogody). Ta różnorodność odnosi się również do częstej amorficzności danych, czyli np. korzystanie z informacji zawartych w mediach społecznościowych, które nie są ustrukturyzowane w żaden sposób. W skrajnym przypadku może się okazać, że każdorazowa analiza czy prognoza będzie zbudowana na innym zestawie danych. Trzecim aspektem Big Data jest wymaganie, aby dane były przetwarzane odpowiednio szybko, gdyż inaczej ich wykorzystanie biznesowo jest wątpliwe. Te trzy wymienione kwestie składają się na tzw 3V Big Data: volume, variety i velocity.
Sposobów na wykorzystanie Big Data może być bardzo dużo i w zasadzie zależy to wyłącznie od kreatywności osób projektujących takie systemy. W obszarze bieżącej sprzedaży dużym potencjałem może być analiza pogody i jej prognozy, co może być wykorzystane choćby przy poprawie trafności prognoz popytu czy ruchu osób bądź samochodów w centrach handlowych bądź ich pobliżu. W obszarze projektowania i produkcji można pochylić się nad potrzebami klientów wynikającymi z publikowanych zainteresowań badaniami nad nowymi technologiami czy choćby preferowanymi kolorami w odzieży. W ochronie środowiska czy w rolnictwie zdjęcia satelitarne mogą pomóc w ograniczeniu emisji zanieczyszczeń czy lepszym planowaniu upraw. W transporcie możliwe (i to rozwiązanie zna już większość użytkowników systemów nawigacji samochodowej) jest sugerowanie tras omijających korki czy wypadki. Duże osiągnięcia i jeszcze większą przyszłość Big Data ma w zapobieganiu oszustwom finansowym. Warto pamiętać, że duże zbiory danych mogą być drążone zarówno za pomocą klasycznych deterministycznych algorytmów jak i uczenia maszynowego czy sztucznej inteligencji, co powoduje że te same bądź podobne zestawy danych mogą doprowadzać do różnych wniosków i decyzji. Może się tak dziać w przypadku analityki predykcyjnej, czyli próby wydobywania z danych wzorów zachowań i przewidywania przyszłych zdarzeń bądź trendów takich jak prognozowania zachowań konsumentów czy identyfikacji potencjalnego ryzyka.
Klasyczne systemy Business Intelligence czy pojawiające się wdrożenia Big Data wspierają podejmowanie decyzji strategicznych i wymagają istotnego zaangażowania czynnika ludzkiego do podjęcia decyzji. Zazwyczaj decyzje podejmowane są rzadko i popierane są analizami jakościowymi, co nie pozwala na stworzenie stabilnych reguł opisanych algorytmami. Zupełnie inna sytuacja występuje w przypadku często powtarzających się zdarzeń o rozpoznanych związkach przyczynowo skutkowych bądź z możliwością analizy dużej liczby przypadków i sklasyfikowaną podjętą decyzją (poprawna bądź błędna).
System ekspercki (czasami nazywany systemem ekspertowym) jest programem komputerowym wykorzystującym bazy danych (podobnie jak w BI najczęściej pochodzącą z hurtowni danych) i reguły wnioskowania w celu podejmowania decyzji. Program taki odwzorowuje podejmowanie decyzji przez człowieka o wysokiej wiedzy w dziedzinie związanej z podejmowanymi decyzjami. Według klasycznych definicji system taki powinien posiadać bazę wiedzy, czyli bazę zależności przyczynowo skutkowych, która w połączeniu z bazą danych pozwala wyciągać wnioski z istniejącej sytuacji. Teoretycznie system ekspercki powinien być uniwersalny, to znaczy powinno być możliwe wprowadzenie do niego różnych reguł wnioskowania i danych by otrzymywać poprawne wnioski w dowolnym obszarze czy dziedzinie. W praktyce jednak zaawansowane systemy eksperckie są programami dedykowanymi i system do wnioskowania o chorobach nie będzie się nadawał do zarządzania ścieżkami kompletacji w magazynie.
Niektóre źródła podają, że przynależność do klasy systemów eksperckich wymaga, by oprogramowanie tak nazywane rozwiązywało złożone problemy na podstawie analizy bazy wiedzy, a nie realizacji prostego algorytmu. Przy obecnej wydajności komputerów trudno określić, kiedy system jest prostym algorytmem, a który bazuje na złożonej bazie wiedzy. Pozornie prosta kwestia dotowarowania sklepu spożywczego w produkty żywnościowe na bazie metody stanów minimalnych i maksymalnych urasta do rangi skomplikowanego systemu, gdy sieć hipermarketów posiada kilkadziesiąt czy kilkaset lokalizacji, w każdym sklepie jest kilkanaście tysięcy indeksów towarowych z których niemal każdy posiada zamienniki czy dobra substytucyjne. Warto też pamiętać, że w dotowarowaniu powinno się uwzględnić przyszłe akcje promocyjne, które mogą być inicjowane w różny sposób w różnych sklepach i inaczej przez poszczególnych producentów. Jeśli dodamy do tego, że dla każdej grupy zamienników istnieje inna wrażliwość klienta na niepełną ofertę (jeśli w sklepie występuje 5 z 8 rodzajów masła to klient nie odczuwa tego jako źle zatowarowany sklep, ale gdy liczba różnych rodzajów masła spadnie do 3 to klient odbiera to negatywnie) czy różne czasy dostawy różnych produktów oraz konieczność stosowania tak zwanych minimów logistycznych to prosty algorytm może stać się systemem eksperckim.
Systemy automatyzujące podejmowanie decyzji masowych takie jak AlogotQ można zaliczyć do pogranicza systemów eksperckich. W porównaniu do systemów wnioskowania o chorobie pacjenta na podstawie występujących objawów czy sposobie działania lekarstw na podstawie ich składu AlgotiQ nie jest tak złożony. Jednak w porównaniu do algorytmów dotowarowania lokalizacji magazynowych bazujących na metodzie stanów minimalnych i maksymalnych złożoność naszego produktu jest bardzo wysoka. Formalnie nasz system jest najbliższy koncepcji Continuous Replenishment Program czyli ciągłego i automatycznego uzupełniania stanu towarów.
Istotą systemów automatyzacji procesów biznesowych jest możliwość stosowania ich we współpracy z systemami transakcyjnymi w tzw. czasie rzeczywistym ich działania. Dzięki temu możliwe jest podejmowanie dużej liczby decyzji w bardzo krótkim czasie, oraz wygenerowanie optymalnego zatowarowania czy replenishmentu sieci sklepów w ciągu dnia, gdy część klientów dokonała już zakupów. W porównaniu do stosowanego w wielu firmach podejścia manualnego (czyli ręczne analizy danych przez pracowników działu Inventory Manager) poprawa jakości wynika z tego, że stan sklepów uwzględniany w analizie jest znacznie bardziej aktualny (przy manualnej analizie pracownicy biorą pod uwagę zazwyczaj wielkość sprzedaży zarejestrowaną na koniec poprzedniego dnia a czasem nawet poprzedniego tygodnia). Ponadto w systemach automatyzacji decyzji można uwzględnić znacznie większą ilość informacji – przy ręcznej obróbce bardzo trudno bazować na więcej niż kilku parametrach opisujących sieć sklepów. Systemy automatyczne nie mają takich ograniczeń. Podobnie jest w systemach sugerujących optymalny moment i poziom przeceny - tam liczba zmiennych wpływających na wynik jest jeszcze większa.
Jak widać z tego artykułu wsparcie podejmowania decyzji biznesowych za pomocą systemów informatycznych to złożone zagadnienie. Zarówno w systemach klasy Business Intelligence jak i systemach eksperckich bardzo istotną rolę odgrywają w nich dobrze przygotowane informacje zgromadzone w hurtowniach danych. W systemach eksperckich i automatyzujących decyzje masowe dodatkowo bardzo istotne są właściwie zastosowane reguły, które pozwalają podejmować właściwe działania. Jednak najważniejszą kwestią w obu rodzajach systemów jest zwiększenie szerokości uwzględnianej informacji i znaczące przyspieszenie podejmowania decyzji, co oznacza że decyzje bazują na szerszym spektrum danych i są bardziej aktualne, a to stanowi istotną przewagę w stosunku do konkurencji.
Dotychczasowa ocena:
4.7/5
Liczba ocen: 7