Sektor produkcyjny, szczególnie przemysł procesowy, to doskonały "generator" informacji. Szacuje się, że w typowym zakładzie z branży FMCG produkującym artykuły higieniczne liczba zdarzeń i zmieniających się wartości, które można by rejestrować, daje około tysiąc próbek danych co... 5 ms. Po przeliczeniu jest to 500 mln na godzinę i 4 biliony rocznie. To ogromne ilości informacji, które kryją w sobie wiele wskazówek co do możliwości optymalizacji procesów produkcyjnych, zużycia energii czy efektywnego wykorzystania maszyn. W przypadku przemysłu chemicznego i branż pokrewnych liczby są o rzędy wielkości większe i nawet minimalne usprawnienia procesu przekładają się na duże pieniądze. Problemem jest jedynie to, jak do owych najważniejszych danych się dobrać.
Z tym ostatnim przemysł próbuje radzić sobie nie od dzisiaj. Przedsiębiorstwa korzystają z oprogramowania bazodanowego, wdrażają też narzędzia do analizy danych historycznych w celu wyszukiwania trendów i anomalii. Istnieją również możliwości stosowania złożonych algorytmów, które na podstawie obliczania korelacji danych w czasie rzeczywistym określają przykładowo przyczynę zatrzymania się linii produkcyjnej i mogą pokierować działaniami personelu. Nowością, na którą zwracają tu uwagę przedstawiciele GE oraz IBM - firm prawdopodobnie najbardziej "zaawansowanych" w temacie przemysłowego Big Data - jest bardzo szybko rosnąca ilość i zmienność tych danych. Rodzi to konieczność stosowania zupełnie nowych technologii, które umożliwią maksymalnie efektywną archiwizację wszelkich informacji procesowych - i to bez względu na ich ilość, a następnie wydajną analizę. Bazują one, czego przykładem jest Proficy Historian HD, na hurtowniach danych, zastosowaniu globalnej, rozproszonej infrastruktury obliczeniowej oraz pracy w chmurze. Celem tych zabiegów jest umożliwienie "wyciągnięcia" z pełnego pasma danych, czyli z owych terabajtów rocznie, tylko tych informacji, które są w danym momencie rzeczywiście niezbędne do optymalizacji procesu czy przykładowo do predykcyjnego utrzymania ruchu.
Oczywiście, podobnie jak jest to w przypadku systemów MES, nie są to narzędzia dla każdego. Na pewno zainteresowane będą nimi przedsiębiorstwa mające rozbudowane parki maszynowe i firmy działające w rozległych geograficznie obszarach, a więc przykładowo dostawcy mediów. Z czasem jednak omawiane technologie będą przenikały do mniejszych systemów analitycznych i standardowego oprogramowania bazodanowego. Dzisiaj ważne jest natomiast zauważenie tego, że rozwija się nowa, obiecująca koncepcja w obszarze przetwarzania danych procesowych oraz data miningu.
W nakreślonym planie rozwoju technologicznego jest jednak haczyk. Główną barierą wdrożeń omawianych systemów nie są możliwości analizy danych, ale przede wszystkim ich pozyskiwania. Stąd też istotnym kosztem i często warunkiem zaimplementowania jakichkolwiek rozwiązań informatycznych jest opomiarowanie instalacji i pełna akwizycja danych. Zakładając jednak, że z pomocą przyjdzie tu Internet of Things, a w przyszłości będziemy dysponowali wręcz nieprzebranymi zasobami informacji, jedno się i tak nie zmieni - po drugiej stronie ciągle potrzeba będzie człowieka. To on musi mieć wiedzę o procesie, umieć zadecydować co analizować i jak wykorzystać posiadane narzędzia. Big Data z pewnością zapewni nowe możliwości, ale nie zwolni od główkowania, gdyż tego zaprogramować się nie da. Jeżeli więc kiedyś staniemy przed decyzją o inwestycji w ultranowoczesne narzędzia IT, warto pamiętać, że każdy system jest jedynie tak dobry, jak operator go obsługujący.
Zbigniew Piątek