O sztucznej inteligencji wspierającej codzienne funkcjonowanie firm i AI jako pogromcy cyberprzestępców rozmawiamy z Łukaszem Strzeleckim, Business Development Managerem Softprom Poland Sp. z o.o.

Beata Anna Święcicka, „Wprost”: Jakie firmy i w jakiej przestrzeni wspierają się sztuczną inteligencją?

Łukasz Strzelecki, Softprom Poland: Sztuczna inteligencja zmienia sposób działania firm – od analiz danych, przez automatyzację procesów, aż po obsługę klienta. Coraz częściej po AI sięgają nie tylko korporacje, ale i małe oraz średnie firmy. I choć potencjał jest ogromny, to równie duże są zagrożenia.

Wspomniana przez Pana analiza danych, automatyzacja procesów czy obsługa klienta wiąże się z tym, że systemy AI przetwarzają często dane wrażliwe, handlowe lub osobowe. Czy to jest bezpieczne?

Niewłaściwe zarządzanie może prowadzić do wycieków, nadużyć lub podatności na ataki. Coraz częstsze są przypadki data poisoning (zatruwania danych uczących modele) czy model inversion (odzyskiwania danych wejściowych na podstawie odpowiedzi AI). Równolegle cyberprzestępcy także wykorzystują AI do tworzenia zaawansowanych phishingów, deepfake’ów i automatycznych ataków. Z danych Verizon DBIR 2024 wynika, że ponad 60 proc. incydentów dotyka małe i średnie firmy, które często nie posiadają rozbudowanych struktur bezpieczeństwa.

Czy MŚP może sobie pozwolić na ochronę przed tego typu cyberatakami?

Dziś każda, nawet niewielka firma może mieć swój SOC w modelu SaaS oraz zaawansowaną ochronę XDR, np. taką jak Cynet 360, który w niezależnym raporcie MITRE ATT&CK Evaluations plasuje się na czołowych miejscach w zakresie detekcji i reakcji. Co istotne – koszt jego wdrożenia nie przekracza ceny klasycznego oprogramowania antywirusowego klasy premium.

Czy ten system wykorzystuje AI?

Tak – sam Cynet 360 wykorzystuje sztuczną inteligencję do analizy zachowań, korelowania zdarzeń oraz automatycznego reagowania na zagrożenia w czasie rzeczywistym. AI działa tu jak cyfrowy analityk bezpieczeństwa – uczący się wzorców i reagujący błyskawicznie tam, gdzie ludzki zespół mógłby się spóźnić. To pokazuje, że AI nie tylko stwarza ryzyko, ale – odpowiednio wdrożona – może być jednym z jego najskuteczniejszych pogromców. Z perspektywy zespołów Security Operations Center (SOC) kluczowe staje się zintegrowane podejście do zarządzania ryzykiem AI. Oznacza to konieczność monitorowania nie tylko infrastruktury IT i danych, ale również tzw. AI pipelines – czyli całego łańcucha przetwarzania danych, trenowania i wdrażania modeli. W praktyce oznacza to integrację logów z narzędzi ML/AI do systemów klasy SIEM, wzmocnienie zasad kontroli dostępu (IAM) oraz tworzenie dedykowanych reguł korelacyjnych dla incydentów typu AI-related.

Czy firmy mogą dziś jeszcze „eksperymentować” z AI bez odpowiednich zabezpieczeń?

AI nie może działać poza strukturą bezpieczeństwa – musi być jej częścią. W dobie transformacji cyfrowej odporność na zagrożenia nie zależy od rozmiaru organizacji, ale od jej architektury bezpieczeństwa, świadomości i gotowości do reagowania.

Dziękuję za rozmowę.

Udział
Exit mobile version