Fabryka Przyszłości – rozwijaj się dzięki technologii
Technologie IT w świecie biurowym i świecie produkcji przemysłowej rozwijały się w odmiennych warunkach i miały różne priorytety. „Biurowe IT” to duże moce obliczeniowe, imponujące prędkości transmisji danych, klimatyzowane serwerownie, sieć biurowa, Internet. Pomaga zarządzać firmą jako organizacją. W fabryce jest inaczej. Tutaj liczy się praca w czasie rzeczywistym, bezpieczeństwo, niezawodność, odporność na zakłócenia pochodzące od maszyn, stabilność. Prostsze rozwiązania z reguły są lepsze, a elegancja ustępuje miejsca wytrzymałości.
Przez lata kontakt te światy nie były w bezpośrednim kontakcie ze sobą. To, co się działo w fabryce, znajdowało odzwierciedlenie w danych przetwarzanych w biurze w postaci statystyki produkcji, notatek o awariach, przeglądach i przestojach. Raporty pisali ludzie pracujący przy taśmie produkcyjnej, i robili to wtedy, kiedy zobowiązywały ich do tego procedury: na koniec zmiany, tygodnia, miesiąca, po większej awarii lub wypadku.
Celem tych procedur było reagować na błędy, poprawiać, kiedy coś się zepsuło, i robić to tak, żeby poprawka wykluczyła podobny błąd w przyszłości. Problem w tym, że tradycyjny system raportowania jest sitem o dużych oczkach, przez które uciekają informacje o zdarzeniach zwiastujących z wyprzedzeniem poważne problemy.
Najwyższy czas, żeby oba światy zaczęły się bezpośrednio komunikować.
Cloud Computing a Edge Computing
Chmury obliczeniowe mają niespotykane dotąd moce obliczeniowe, ale nie rozwiązują problemu z przesyłaniem danych pomiędzy klientem a chmurą. Liczba bajtów, które można przesłać w jednostce czasu, zależy od przepustowości sieci łączącej oba środowiska, a więc w większości przypadków od przepustowości Internetu. W większości typowych zastosowań nie stwarza to problemów. Jeśli już, to jedynie na początku migracji z klasycznej serwerowni do chmury, ponieważ wtedy trzeba „przepompować” w krótkim czasie duże ilości danych historycznych przechowywanych dotąd lokalnie. Później sytuacja się stabilizuje.
Czwarta rewolucja przemysłowa narusza ten optymistyczny scenariusz. Urządzenia w fabryce mogą wytwarzać tak wielkie ilości danych, że nie da się ich przesyłać do chmury w czasie rzeczywistym. Znaleziono rozwiązanie, które potrafi sprostać oczekiwaniom biznesu dzisiaj i w najbliższej przyszłości – Edge Computing.
Postanowiono stworzyć warstwę pośrednią między światem maszyn a światem tradycyjnych technologii IT. Dane z maszyn trafiają do wydajnych systemów obliczeniowych zbudowanych na urządzeniach klasy przemysłowej. Tam dane są wstępnie przetwarzane, selekcjonowane i interpretowane. W ten sposób z surowych danych wytwarza się informacje. Kilkadziesiąt danych napływających w czasie rzeczywistym z jednego urządzenia składa się na informacje opisujące stan techniczny maszyny, przebieg procesu technologicznego, rodzaj zdarzenia.
Wiele decyzji dotyczących bieżącego sterowania procesami można podjąć na podstawie informacji wydobytych „na krawędzi” z surowych danych. Dzisiaj decyzje podejmują ludzie – specjaliści od technologii produkcji i utrzymania ruchu, jednak przyszłość zdaje się należeć do systemów autonomicznych, posiadających zdolność „samozarządzania”.
Po co korzystać z chmury, skoro Edge Computing pomaga zapanować nad teraźniejszością? Analiza danych historycznych i wyszukiwanie wzorców są wciąż możliwe jedynie w bardzo wydajnych środowiskach. Chmura jest potrzebna po to, żeby analizować informacje potrzebne do podejmowania długoterminowych, strategicznych decyzji biznesowych w oparciu o precyzyjne, „niskopoziomowe” dane z maszyn. Edge Computing to broń taktyczna, działająca „tu i teraz”.
Sztuczna inteligencja
Miłośnicy literatury fantastycznonaukowej mogą wskazać dziesiątki książek, w których istotną rolę odgrywa urządzenie (często komputer) uzyskujące autonomię: zdolność myślenia, świadomość własnej odrębności, czasami odczuwające emocje.
Zastosowanie sztucznej inteligencji może otworzyć zupełnie nowe możliwości. Znanym przykładem jest zatrudnienie sztucznej inteligencji do rozpoznawania objawów chorób utrwalonych na zdjęciach rentgenowskich i w innych badaniach obrazowych. Lekarz radiolog uzyskuje umiejętność oceny zdjęcia po wielu latach specjalizacji i praktyki, oglądając niezliczone ilości zdjęć narządów zdrowych i zmienionych przez chorobę. Po tym czasie wykształca coś w rodzaju intuicji diagnostycznej. Potrafi zauważyć i zinterpretować niuanse obrazu, których laik nigdy by nie dostrzegł.
Eksperyment ze sztuczną inteligencją polegał na tym, że do pamięci komputera wprowadzono wielkie ilości obrazów narządów zdrowych i chorych wraz z informacją o tym, jaka choroba została ostatecznie precyzyjnie rozpoznana, na przykład w wyniku sekcji zwłok. Komputer „uczył się” rozpoznawać objawy chorób, wykorzystując coś, co moglibyśmy nazwać intuicją.
Gdybyśmy mogli go zapytać, co na konkretnym zdjęciu wskazuje na raka trzustki w bardzo wstępnym stadium, nie potrafiłby odpowiedzieć. Ale „wiedziałby”, że u dwóch milionów pacjentów, u których ostatecznie rozpoznano raka trzustki, wcześnie wykonane zdjęcia rentgenowskie, tomografia komputerowa albo magnetyczny rezonans jądrowy miały coś wspólnego ze zdjęciem, które właśnie przetwarza.
Załóżmy, że dysponujemy potężnym zbiorem danych opisujących stan maszyn oraz ich środowisko pracy. Dane są precyzyjne i obejmują wszystko, co może interesować specjalistów metrologów: wartości napięć i prądów rejestrowane w czasie rzeczywistym, temperatury napędów, przekładni, drgania, poziom hałasu, ciśnienie powietrza, ciśnienie i temperaturę płynu hydraulicznego, prędkości kątowe i liniowe, temperaturę powietrza w hali produkcyjnej i na zewnątrz, ciśnienie atmosferyczne. Potężny strumień danych zapisywanych po to, żeby zasilić nimi komputery realizujące algorytmy sztucznej inteligencji i poszukujące koincydencji zdarzeń, które zwiastowały awarię, wypadek albo wyprodukowanie wadliwej części.
Jeśli dodatkowo śledzimy los produktów, nadając im numery seryjne, możemy nakarmić system danymi o zwrotach gwarancyjnych, detalach, które nie przeszły kontroli jakości itp. Jeśli program nauczy się dopasowywać zwiastuny do usterek, osiągniemy stan, o którym marzą wszyscy inżynierowie utrzymania ruchu: większość awarii potrafimy przewidzieć z wyprzedzeniem, zmniejszymy częstotliwość prewencyjnych przeglądów maszyn, będziemy wiedzieli, że konkretna partia wyrobów powstała w warunkach, które mogły spowodować wady niezauważalne podczas kontroli jakości, ale ujawniające się po ostatecznym montażu u klienta.
Oprogramowanie
Nasz świat coraz bardziej nasyca się elektroniką, zwłaszcza urządzeniami cyfrowymi. Sprzęt tworzy w miarę uniwersalną platformę do wykonywania różnego rodzaju zadań, ale o skuteczności rozwiązania decyduje zazwyczaj oprogramowanie. Dobrze zaprojektowane modele matematyczne, przeniesione do algorytmów, a następnie zaimplementowane w którymś z języków programowania, są niezbędnym warunkiem rozwoju automatyki i informatyki. Napędzają Edge Computing i przetwarzanie w chmurze.
Zarządy i kierownicy odpowiadający za stronę biznesową przedsięwzięcia będą musieli rozumieć reguły gry obowiązujące w świecie informatyki: zasady prowadzenia projektów, realne czasy realizacji zleceń, koszt tworzenia programu itd.
Ponieważ każdy biznes wykorzystuje zaawansowane techniki informatyczne, oprogramowanie jest niezbędne wszędzie. Dopóki nie powstaną samoprogramujące się maszyny, programiści będą mieli ręce pełne roboty, zazwyczaj nieźle płatnej. Tym bardziej że rynek staje się coraz trudniejszy i wymusza konkurowanie nie tylko ceną, ale i jakością produktu. Wygra ten, kto wyprodukuje nie tylko więcej, ale także taniej i szybciej.
Proces projektowania, prototypowania i wdrażania do produkcji nowych automatów i robotów jest stosunkowo pracochłonny i długotrwały. W okresach pomiędzy wdrożeniem kolejnych generacji maszyn przewagę można uzyskać, lepiej poznając procesy i pełniej wykorzystując maszyny. W praktyce często oznacza to stosunkowo niewielkie inwestycje w dodatkowe urządzenia (moduły do sterowników PLC) połączone z rozwijaniem dedykowanego oprogramowania.
IT w fabrykach przyszłości
IT w przemyśle czeka szybki skok naprzód. Kierunek wyznaczają: IoT (Internet of Things), czyli Internet rzeczy, AI (Artificial Intelligence) – sztuczna inteligencja, Data Mining i hurtownie danych, czyli techniki przechowywania i analizowania wielkich zbiorów danych.
To będzie świat urządzeń o wysokim stopniu autonomii, zdolnych do bezpośredniego przekazywania dużych ilości danych nie tylko pomiędzy urządzeniem a chmurą albo warstwą „Edge”, ale przede wszystkim bezpośrednio między urządzeniami współpracującymi na linii produkcyjnej. Świat urządzeń samodzielnie korygujących parametry pracy i wzywających serwisantów, kiedy tylko „poczują się” uszkodzone.
Nowe modele biznesowe
Prowadzenie biznesu w dzisiejszych czasach to przede wszystkim ograniczanie kosztów. Trudny rynek, niespodzianki w rodzaju ostatniej pandemii sprawiają, że wielu przedsiębiorców obawia się inwestycji w obrabiarki, linie produkcyjne, infrastrukturę IT. Bo co będzie, jeśli zapotrzebowanie na wytwarzane produkty zmaleje, a raty leasingowe trzeba będzie płacić w zwykłej wysokości? Nie każdy fundusz leasingowy będzie skłonny do negocjacji.
Od kilkunastu lat w branży IT rośnie popularność modelu rozliczania się raczej za wykonanie usługi i zużycie zasobów niż przekazanie licencji oprogramowania albo sprzedaż serwera, pamięci masowej czy urządzeń sieciowych. Sprzyja temu rozwój chmur obliczeniowych, które w różnych wariantach umożliwiają zastąpienie fizycznej serwerowni firmy urządzeniami zainstalowanymi w gigantycznych „data center” firm takich jak IBM, Amazon czy Oracle. Tak działa model SaaS – Software as a Service.
Potrzebujesz programu księgowego, bazy danych, oprogramowania inżynierskiego? Nieprawda. Potrzebujesz funkcji, które realizuje to oprogramowanie, żeby wykonać określone zadanie: rozliczyć faktury, przechować i wyszukać informację, obliczyć parametry konstrukcji. Możesz to zrobić na własnym komputerze, jak dotychczas, i zapłacić pełne kwoty za sprzęt, licencję, powierzchnię w budynku. Ale czy to się opłaca, jeśli zasobów używasz przez najwyżej 100 godzin w miesiącu, który trwa 864 godziny?
W modelu SaaS program działa na serwerze usługodawcy, a klienci płacą za dostęp do usługi polegającej na udostępnieniu funkcji programu przez sieć, zazwyczaj przez Internet.
Podobnie działają modele:
- PaaS – Platform as a Service, kompletne środowisko deweloperskie i środowisko wdrażania oprogramowania w chmurze,
- IaaS – Infrastructure as a Service, zdefiniowane przez klienta urządzenia i oprogramowanie umieszczone w zewnętrznej serwerowni i udostępniane zdalnie.
Przedsiębiorców działających w obszarze produkcji może zainteresować model MaaS – Machine as a Service. W tym przypadku producent maszyny dostarcza ją do klienta i pobiera opłaty za czas pracy, liczbę wykonanych detali albo rozlicza się w inny sposób odzwierciedlający faktyczne wykorzystanie urządzenia. Wszystkie koszty związane z diagnostyką, przeglądami, naprawami maszyny są po stronie jej producenta/sprzedawcy.