Technologie gromadzenia i przetwarzania danych na krawędzi sieci (edge computing) cieszą się coraz większą popularnością – jest to związane m.in. z rozwojem IoT (Internetu Rzeczy) i wykorzystaniem sztucznej inteligencji. Nietrudno wskazać przyczyny tego zjawiska. Odciążenie „centrali” od przetwarzania danych i przerzucenie tej czynności na urządzenia końcowe (np. IoT) pozwala na redukowanie opóźnień, zwiększenie przepustowości i znaczące przyspieszenie czasu odpowiedzi. Jednak korzyści można osiągnąć tylko przy zastosowaniu niezbędnych zabezpieczeń.
Szanse idące za edge computing, ale także dotkliwość potencjalnego ryzyka, już teraz zauważane są w sektorze przemysłowym. Zautomatyzowane i inteligentne zbiory danych stają się powszechne w fabrykach. Umożliwiają podejmowanie krytycznych decyzji w czasie rzeczywistym w procesach o kluczowym znaczeniu, zwłaszcza w robotyce i urządzeniach wykorzystujących sztuczną inteligencję (SI).
Negatywne konsekwencje „wyłomów” w zabezpieczeniach są ekstremalnie groźne. Hakerzy mogą przeprogramować algorytmy uczenia maszynowego, aby przejąć kontrolę nad robotami w fabryce. To ryzyko zatrzymania produkcji, ale także zagrożenie dla bezpieczeństwa pracujących tam ludzi.
Biorąc pod uwagę, że urządzenia IoT są numerem jeden na liście hakerów, decyzja o wdrożeniu aplikacji działających na krawędzi powinna uwzględniać kwestie bezpieczeństwa. W tym zakresie aplikacje edge bywają traktowane jako proste rozszerzenia rozwiązań chmurowych i często zabezpieczane są jedynie przez firewalle, które są niewystarczające do działań na krawędzi. Tymczasem, żeby przetwarzać dane poza centrum, aplikacje i ich dane są dystrybuowane pomiędzy wieloma lokalizacjami. Znacząco zwiększa to pole zagrożeń. Węzły „edge” w architekturze rozproszonej mogą znajdować się poza centralnymi zabezpieczeniami, co bardziej naraża je na fizyczny dostęp. Wymagają więc specjalnej ochrony dla aplikacji sieciowych. Ogólnie – niezwykle istotne jest zapewnienie takich modeli zabezpieczeń, które chronią aplikacje niezależnie od tego, gdzie są ulokowane.
Przeczytaj także:
Korzyści edge computingu przeważają ryzyko. Zasadniczo wprowadzenie takich rozwiązań może nawet uprościć zarządzanie bezpieczeństwem. Tradycyjnie, strumień jest kierowany do centrum danych lub do chmury, gdzie trudniej jest dane/informacje monitorować i chronić, gdy wzrasta ruch sieciowy. Serwery na krawędzi mogą odciążać zadania obliczeniowe z połączonych urządzeń poprzez wychwytywanie potrzebnych dla zachowania bezpieczeństwa informacji, tak jak to robi prywatna chmura, dzięki czemu te dane mogą być dostępne lokalnie. Ponadto, procesy monitorowania na krawędzi dostarczają bardziej klarownych i jasnych informacji, skąd dane pochodzą i gdzie są kierowane.
Zapewnienie stałej polityki bezpieczeństwa i wdrożenie jej do dystrybucji w architekturze edge computingu będzie możliwe dopiero przy zautomatyzowaniu tych procesów. Kontrola sieci i bezpieczeństwa jest w takich przypadkach automatycznie rozmieszczana, gdy tylko uruchamiamy aplikację znajdującą się na krawędzi sieci.
Rola dostawcy usług
Dostawcy usług sieciowych i infrastruktury będą pełnić kluczową rolę w przyszłościowych procesach gospodarczych. Będą więc odpowiedzialni za zapewnienie mocnych, wielowarstwowych firewalli, które mogą być zaadaptowane tak szybko, jak szybko zmienia się mapa możliwych zagrożeń.
Ze względu na zróżnicowana naturę zautomatyzowanej dystrybucji w edge computingu będą też musieli upewnić się, czy ich interfejsy kontroli są chronione poprzez prawidłowe rozwiązania bezpieczeństwa API.
Źródło: F5 Poland