Arthur C. Clarke, jeden z klasyków literatury fantastycznej, stwierdził kiedyś: „Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii”. Choć sztuczna inteligencja nie jest już tak owiana tajemnicą, jak miało to miejsce w latach sześćdziesiątych, do dziś nie zawsze wiemy, w jaki sposób dochodzi do pewnych wniosków – również tych dotyczących naszych sieci IT.
Od “Terminatora” do “Matrixa”, od “Battlestar Galactica” po „Odyseję kosmiczną” – motyw sztucznej inteligencji przejmującej całkowitą kontrolę nad ludzkością obecny jest w kulturze popularnej już od wielu dekad. W wielu przypadkach źródłem wrogości między ciałem, a metalem jest... słaba komunikacja.
Pamiętacie te historie? HAL 9000, inteligentny komputer zarządzający statkiem kosmicznym, doświadcza awarii w wyniku otrzymania dwóch sprzecznych zestawów instrukcji. VIKI, superkomputer z filmu „Ja, Robot”, kierując się trzema prawami robotów Asimova, tworzy nadrzędne prawo zerowe sankcjonujące zabijanie jednostek w celu ochrony ogółu.
Wytłumacz się, HAL!
Choć wszystkie te ponure scenariusze na szczęście raczej się nie zmaterializują, prawdą jest że nie zawsze wiemy, w jaki sposób dokładnie myślą maszyny. Procesy potężnych modeli AI/ML, takich jak Głębokie Sieci Neuronowe (ang. Deep Neural Networks), są niezwykle trudne do wyjaśnienia. Inżynierowie często stają przed dylematem: czy wykorzystać bardziej zaawansowany model (np. sieć LSTM), który co prawda działa znacznie lepiej, niż znacznie „prostszy” model regresji logistycznej, lecz jest zdecydowanie trudniejszy w zrozumieniu i wyjaśnieniu procesów decyzyjnych.
Mówiąc bardziej obrazowo, współczesne modele sztucznej inteligencji działają w oparciu o tzw. koncepcję czarnej skrzynki. AI otrzymuje dane wejściowe, na podstawie których formułuje dane wyjściowe. To, co dzieje się wewnątrz czarnej skrzynki, jest dla nas praktycznie niewidoczne. W ramach uczenia maszynowego, za działanie czarnych skrzynek odpowiadają algorytmy. Nawet, gdybyśmy posiadali pełny obraz danych wejściowych, modele predykcyjne tego typu są tak złożonymi funkcjami zmiennych, że nawet ich twórcy nie są w stanie w pełni zrozumieć tego, w jaki sposób maszyna dochodzi do konkretnych konkluzji.
Jasne, samo rozwiązanie niesie wiele korzyści dla organizacji, m.in. zwiększając wydajność operacji i otwierając nowe możliwości pracy. Wyjaśnialność algorytmów sztucznej inteligencji jest jednak niezwykle istotna w kontekście systemów odpowiadających za podejmowanie decyzji oraz automatyzację działań. Brak możliwości wyjaśnienia działania modeli czarnych skrzynek już dziś stwarza pewne problemy w takich obszarach, jak służba zdrowia czy wymiar sprawiedliwości, a także w sieciach IT.
Musimy bowiem zrozumieć, że każdy model ML stanowi pewną ograniczoną wersję rzeczywistości, przez co nie zawsze jest w stanie odzwierciedlić ją w sposób idealny. HAL 9000 nie rozumiał na przykład sprzecznych instrukcji. Dobry model poprawnie zinterpretuje rzeczywistość „zaledwie” w większości przypadków – co dopiero, gdy mowa o kiepskim modelu. Oceniając model ML, musimy więc ustalić jak często poprawnie identyfikuje on konkretne zdarzenie. Nawet najlepszy model nie osiągnie jednak wyniku 100%, co skłania nas do zadania następujących pytań:
Co jeśli nasz problem jest częścią zestawu nieprawidłowych identyfikacji zdarzeń?
Jak będziemy o tym wiedzieć, a jeśli nie możemy się dowiedzieć – w jaki sposób możemy obejść decyzję sztucznej inteligencji?
Wyjaśnialne AI dla Twoich sieci zarządzanych w chmurze
Wyjaśnialne AI (ang. Explainable AI, XAI) to kierunek myślenia, w ramach którego każdy model uczenia maszynowego powinien być możliwy do wytłumaczenia i jasno prezentować proces interpretacji prowadzący do danej decyzji. XAI postuluje także korzystanie z prostszych modeli, które same w sobie są łatwiejsze w interpretacji. W Extreme Networks zdajemy sobie sprawę, jak istotne jest zachowanie czynnika ludzkiego podczas budowania aplikacji ML/AI, dlatego też funkcję CoPilot, która uzupełnia nasza platformę ExtremeCloud IQ, zbudowaliśmy właśnie w oparciu o koncepcję XAI.
Oznacza to, że wszelkie funkcje ML/AI, które pomagają przy rozwiązywaniu problemów lub dostarczają rekomendacji dotyczących Twoich sieci IT, muszą dodatkowo „wyjaśnić”, na jakiej podstawie wyciągnięto dane wnioski oraz jasno przedstawić, dlaczego proponowana jest taka a nie inna decyzja. W razie potrzeby, administrator sieci może obejść konkretną decyzję, co jest niezwykle przydatne w przypadku środowisk sieciowych o kluczowym znaczeniu. Możliwość prześwietlenia decyzji ML/AI ogranicza dwuznaczność i rozmywanie odpowiedzialności, pomagając przy tym w budowaniu zaufania pomiędzy administratorami sieci, a sztuczną inteligencją.
Dzięki wyjaśnialnym funkcjom ML/AI, ExtremeCloud IQ CoPilot pozwala automatyzować operacje, zwiększać bezpieczeństwo oraz poprawiać doświadczenia użytkowników w sposób pewniejszy, niż kiedykolwiek.
A w bonusie możemy odłożyć magiczne sztuczki i krwiożercze roboty tam, gdzie ich miejsce – na dziale fantastyki!