Bez względu na to, gdzie AI pojawia się w procesach produkcyjnych, ma ono dwa główne zadania:
- działać szybko i podejmować natychmiastowe decyzje przy maszynie,
- uczyć się w skali całych operacji, aby z czasem stale poprawiać wydajność.
Te dwa typy obciążeń mają jednak różne wymagania. Niektóre decyzje muszą być podejmowane w czasie rzeczywistym — dokładnie tam, gdzie powstają dane. Inne wymagają analizy wzorców obejmujących linie produkcyjne, zakłady i całe floty urządzeń.
Aby sprostać wszystkim zadaniom stawianym dziś przed AI, większość producentów zakłada, że potrzebuje dwóch środowisk obliczeniowych: edge computingu dla szybkości i responsywności oraz chmury dla skalowalności i trenowania modeli.
Przyszłość AI w produkcji zależy jednak od umiejętnego wykorzystania obu tych środowisk.
Dlaczego podejście „cloud AI vs. edge AI” nie wystarcza
O cloud AI i edge AI zwykle mówi się jak o wyborze „albo–albo”: wybierasz środowisko najlepiej pasujące do danego obciążenia i wokół niego budujesz rozwiązanie. Takie podejście wymusza jednak niepotrzebne kompromisy.
Dlaczego samo cloud AI nie wystarcza
Podejście oparte wyłącznie na chmurze może mieć sens, gdy celem jest trenowanie modeli lub porównywanie danych między zakładami, aby uzyskać szeroki obraz wydajności. Problem pojawia się jednak wtedy, gdy aplikacja wymaga natychmiastowej reakcji przy maszynie. Wysyłanie każdego sygnału do chmury może generować zbędne koszty i problemy z przepustowością.
Nawet niewielkie opóźnienie ma znaczenie, gdy model ma wykrywać usterki lub anomalie i reagować na nie w czasie rzeczywistym. Dane muszą zostać przesłane do chmury i z powrotem, zanim system będzie mógł podjąć jakiekolwiek działanie.
Dlaczego samo edge AI nie wystarcza
Podejście oparte wyłącznie na edge computingu rozwiązuje problem szybkości, ale tworzy nowe ograniczenia. Przetwarzanie na brzegu sieci jest szybkie, lecz odizolowane — nie daje wglądu w to, co dzieje się w innych lokalizacjach. Bez chmury modele nie mogą uczyć się na podstawie szerokich zbiorów danych, a wzorce pozostają ograniczone do pojedynczych zakładów lub w ogóle nie zostają zauważone.
Przykładowo: jeśli określony wzorzec drgań w obrabiarce CNC okaże się wczesnym sygnałem awarii wrzeciona, inne zakłady korzystające z podobnych maszyn nigdy nie skorzystają z wiedzy zdobytej na tej jednej maszynie.
Hybrydowe AI to lepsza droga
Przyszłość AI w produkcji to podejście „local-first, cloud-enabled”. Nie każdy sygnał musi opuszczać halę produkcyjną.
Dlatego wielu producentów przechodzi dziś na model hybrydowy: „cloud AI + edge AI” zamiast „cloud AI vs. edge AI”. Każda warstwa odgrywa kluczową rolę w rozwiązywaniu różnych aspektów tych samych wyzwań przemysłowych. Razem tworzą rozwiązanie, które jest jednocześnie natychmiastowe i skalowalne — dokładnie tego potrzebuje przemysłowe AI.
Edge odpowiada za zadania wymagające natychmiastowej reakcji, natomiast chmura wspiera szersze uczenie modeli, koordynację między zakładami i długoterminową optymalizację. Dzięki temu producenci mogą podejmować decyzje blisko maszyny, nie tracąc jednocześnie z oczu trendów obejmujących całą flotę urządzeń ani długofalowych korzyści wydajnościowych.
Hybrydowe AI w praktyce: wykrywanie anomalii
Przyjrzyjmy się wykrywaniu anomalii w czasie rzeczywistym jako przykładowi możliwości architektury „local-first, cloud-enabled”.
Taką demonstrację pokazano podczas targów HANNOVER MESSE 2026 w kwietniu wspólnie ze Storm Reply oraz Amazon Web Services, aby pokazać, jak hybrydowa architektura AI oparta na kompletnych rozwiązaniach połączeniowych firmy Belden łączy najlepsze cechy obu światów. Reakcje po prezentacji jasno pokazały jedno: producenci chcą znaleźć sposoby na współpracę sztucznej inteligencji w chmurze i sztucznej inteligencji brzegowej.
W tym rozwiązaniu urządzenie edge monitoruje nietypowe zachowania maszyny, filtruje istotne dane i pozostawia surowe dane produkcyjne na hali produkcyjnej. Realizowane jest to poprzez uruchomienie AWS IoT Greengrass v2 na urządzeniu edge firmy Belden w celu akwizycji i wstępnego przetwarzania danych oraz wykorzystanie modelu AI Isolation Forest do oceny zachowania.
Uruchomiono także CloudRail jako skonteneryzowany komponent Greengrass do normalizacji danych IO-Link. Dzięki temu system może analizować zachowanie silnika w czasie rzeczywistym — dokładnie tam, gdzie generowane są dane. Nie trzeba czekać na odpowiedź z odległego systemu. Rezultat to szybsze decyzje i krótszy czas między wykryciem problemu a reakcją.
Do chmury okresowo przesyłane są jedynie istotne wnioski i metryki w celu trenowania modeli oraz zapewnienia widoczności między zakładami. Pozwala to efektywnie wykorzystywać przepustowość sieci i ograniczać koszty przesyłania oraz przechowywania danych w chmurze. Odbywa się to za pomocą wsadowych wysyłek MQTT (co 10 minut) do AWS S3 zamiast przesyłania każdej próbki osobno przez IoT Core. Usługi chmurowe AWS służą do trenowania i wersjonowania modeli, a zaktualizowane modele są następnie przesyłane z powrotem na urządzenia edge za pomocą Greengrass.
Co pokazują wyniki
Wyniki uzyskane dzięki temu rozwiązaniu były bardzo imponujące i dobrze pokazują siłę połączenia edge AI oraz cloud AI:
- czas inferencji: ok. 63 ms na edge vs. ok. 442 ms w chmurze,
- redukcja ruchu backhaul: o ok. 40% mniej,
- dostępność podczas symulowanej awarii WAN: 99,2% dla rozwiązania hybrydowego vs. 5,8% dla rozwiązania wyłącznie chmurowego.
Trzeci element równania AI: sieć
Przyszłość AI w produkcji łączy:
- inteligencję czasu rzeczywistego na edge,
- skalowalną inteligencję w chmurze,
- niezawodną sieć OT, która spina oba te światy.
Deterministyczna i odporna sieć gwarantuje, że właściwe dane trafiają we właściwe miejsce we właściwym czasie. Dzięki temu edge może podejmować decyzje w milisekundach, a chmura może uczyć się na podstawie tego, co „widzi” edge.
Bez tego hybrydowe AI przestaje działać, zanim zdąży przynieść realną wartość.
Kompletne rozwiązania połączeniowe firmy Belden wspierają AI kompleksowo — od decyzji podejmowanych w czasie rzeczywistym na edge po długoterminowe uczenie modeli w chmurze. Współpraca z ekspertami firmy daje producentom jasną ścieżkę rozwoju strategii AI: budować dla edge, budować dla chmury i budować sieć, która pozwoli obu tym środowiskom skutecznie współpracować.