REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Sztuczna inteligencja szansą dla hakerów

Mikko Hyppönen
CRO w firmie WithSecure
Dostępna jest już technologia umożliwiająca automatyczne prowadzenie ataku i omijanie systemów ochronnych
shutterstock

REKLAMA

REKLAMA

Od lat opracowujemy systemy cyberbezpieczeństwa bazujące na uczeniu maszynowym.  W 2005 roku w naszych laboratoriach zaczęliśmy rozwijać automatyzację analizy. Stopniowo te projekty przekształciły się w pełnowartościowe struktury uczenia maszynowego. Od tego momentu, tylko kwestią czasu było kiedy cyberprzestępcy zrobią to samo. Nastąpiło to teraz, po 18 latach. Zaczęliśmy obserwować, że sztuczna inteligencja wpiera złośliwe oprogramowanie.

rozwiń >

Automatyzacja ochrony przed cyber-zagrożeniami

Specjaliści ds. cyberbezpieczeństwa automatyzują swoją pracę od dłuższego czasu. Dzięki temu mogą szybko wykrywać, analizować i reagować na incydenty. Do tej pory odbiegało to od działalności hakerów, którzy musieli projektować i wdrażać swoje ataki ręcznie. Gdy już zostali zablokowani, wszelkie modyfikacje strategii czy kodu wprowadzali wolniej, co dawało przewagę osobom odpowiedzialnym za bezpieczeństwo firm i organizacji.  

REKLAMA

REKLAMA

SI wykorzystywana w cyberatakach 

Zautomatyzowane kampanie, które wykorzystują złośliwe oprogramowanie, znacząco zmienią szybkość reakcji hakerów. Dostępna jest już technologia umożliwiająca automatyczne prowadzenie ataku i omijanie systemów ochronnych. Jak na razie nie obserwujemy wykorzystywania jej przez cyberprzestępców. Będzie jednak z pewnością zauważalne gdy się to stanie. Szybkość reakcji hakerów zmieni z się z ludzkiej na maszynową. 

Deepfakes, czyli fałszywe obrazy

Gdy mówimy o wykorzystaniu SI w działalności przestępczej, najczęściej na myśl przychodzą deepfakes. Coraz łatwiej jest stworzyć realistyczne obrazy osób, które nie istnieją. Wykorzystywane są one w licznych oszustwach, np. na portalach randkowych. Wciąż na niewielką skalę wykorzystywane jest tworzenie fałszywych obrazów prawdziwych osób, podrabianie głosów czy postaci w filmach. Nie ma jednak wątpliwości, że to zjawisko będzie się nasilało. 

Modele językowe w służbie hakerów

Zaawansowane modele językowe, takie jak ChatGPT, są w stanie tworzyć treści nie tylko w językach naturalne, ale również we wszystkich językach programowania.  Daje to przestrzeń do działalności przestępczej. Przykładem użycia takiego samoreplikującego się kawałka kodu, który potrafi wykorzystać duże modele językowe do tworzenia nieskończonych wariacji samego siebie jest malware który otrzymałem mailem od użytkownika SPTH.

REKLAMA

Samoreplikujący się kod

SPTH to hobbysta tzw. „starej szkoły wirusów”, znany z projektowania rozwiązań, które przełamują schematy. Stworzył długą listę złośliwych programów takich jak pierwsze złośliwe oprogramowanie infekujące DNA, „Mycoplasma Mycoides SPTH-syn1.0”. SPTH prawdopodobnie nie jest zainteresowany wykorzystaniem złośliwego oprogramowania do wyrządzania szkód lub kradzieży pieniędzy.

Dalszy ciąg materiału pod wideo

Stworzony przez niego samoreplikujący się kod nosi nazwę LLMorpher. Twórca pisze o nim: 

„Idziemy dalej i pokazujemy, jak zakodować samoreplikujący się kod całkowicie w języku naturalnym. Zamiast konkretnych instrukcji kodu, nasz wirus składa się z listy dobrze zdefiniowanych zdań (promptów) napisanych w języku angielskim. Następnie wykorzystujemy ChatGPT firmy OpenAI, jeden z najpotężniejszych systemów sztucznej inteligencji dostępnych publicznie. Czat może tworzyć różne kody o tym samym modelu działania, co jest nową formą metamorfizmu.”

Infekcja programów napisanych w Pythonie

Fragment kodu może zainfekować programy napisane w języku Python. Po wykonaniu instrukcji przeszukuje komputer w aby odnaleźć pliki o rozszerzeniu .py i kopiuje do nich własne funkcje. Nie są jednak powielane bezpośrednio; funkcjonalność jest opisywana w języku angielskim do modelu GPT, który następnie tworzy rzeczywisty kod, który zostaje skopiowany. W rezultacie powstaje zainfekowany plik Python, replikujący złośliwe oprogramowanie do nowych plików. Jego funkcje są za każdym razem przeprogramowywane przez sztuczną inteligencję. Tego typu rozwiązanie nie było do tej pory wykorzystywane. 

Samo pisanie złośliwego oprogramowania nie jest nielegalne. Nie wolno używać go jednak do infekowania systemów lub powodowania szkód. Chociaż wydaje się, że SPTH nie zrobił nic nielegalnego, jego działanie jest problematyczne. Odkrycia mogą zostać użyte przez osoby trzecie, gdyż LLMorpher dostępny jest do pobrania z Githuba.

Jak się bronić?

LLMorpher nie może działać bez ChatGPT. Nie ma swojej kopii, ponieważ czat jest niedostępny do pobrania. Oznacza to, że OpenAI (twórca ChatGPT) może zablokować każdego, kto używa rozwiązania w niewłaściwym celu. Niektóre z podobnych modeli językowych są jednak możliwe do pobrania, na przykład LLaMA. Możemy się więc spodziewać samoreplikującego się kodu wbudowanego w złośliwe oprogramowanie. 

Wczesne wykrywanie podejrzanych zachowań jest najlepszym sposobem na walkę ze złośliwym oprogramowaniem, które wykorzystuje duże modele językowe. Najlepiej robią to produkty bezpieczeństwa, które też wykorzystują uczenie maszynowe. Jedynym czynnikiem, który może powstrzymać „złą” sztuczną inteligencję jest „dobra” sztuczna inteligencja.

Źródło: Źródło zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
AI też musi być odpowiedzialna. Co sztuczna inteligencja ma wspólnego z ESG?

ESG już dawno przestało być hasłem zastrzeżonym dla dużych spółek i działów sustainability. Dr Marcin Huczkowski, partner w kancelarii Fieldfisher Poland, wyjaśnia, dlaczego wdrażając AI nie można pominąć pytań o ślad węglowy, uprzedzenia zakodowane w algorytmach, odpowiedzialność za błędną poradę prawną czy prawa pracowników dotkniętych automatyzacją. I pokazuje, że te tematy mają już bardzo konkretny wymiar prawny.

AI w biznesie – praktyczne zastosowania w księgowości, kadrach i innych działach firmy

Sztuczna inteligencja coraz mocniej wchodzi do firmowej codzienności. Już nie tylko wspiera pisanie tekstów czy analizę danych, ale realnie usprawnia obieg dokumentów i całe procesy biznesowe. Narzędzia takie jak np. AMODIT Copilot, AskAI i AI OCR pomagają automatyzować zadania w finansach, HR, prawie, zakupach i IT, odciążając zespoły i przyspieszając pracę organizacji.

AI wychodzi już z centrów danych. Roboty z neuromorficznymi chipami odbierają bodźce w czasie rzeczywistym jak ludzki mózg i zmysły

Do 2028 r. globalne wydatki na infrastrukturę brzegową mają wzrosnąć z 261 mld do 380 mld dolarów, co jest konsekwencją zwiększającego się zapotrzebowania na inteligentne i energooszczędne rozwiązania do przetwarzania danych. Pomocne w zaspokojeniu tego wyzwania może być neuromorficzne podejście do obliczeń, które zaczyna „wypychać” sztuczną inteligencję poza centra danych, umożliwiając działanie jej mechanizmów bliżej źródeł informacji. Znajduje ono już zastosowanie w robotyce, medycynie, modelowaniu klimatu czy cyberbezpieczeństwie. Jednak, jak wskazują eksperci Vertiv, za rozwojem takich rozwiązań wciąż nie nadąża infrastruktura (zarówno sprzętowa, jak i programowa) potrzebna do ich wdrażania na większą skalę.

AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.

REKLAMA

Rewolucja w prawie AI! Firmy używające AI muszą się dostosować.

Długo oczekiwany projekt przepisów o systemach sztucznej inteligencji trafi wkrótce pod obrady Rady Ministrów. Tak powiedział Infor.pl Sekretarz Stanu w Ministerstwie Cyfryzacji. Nastąpiła zatem długo wyczekiwana zmiana w harmonogramie legislacyjnym i w końcu projekt opuścił Ministerstwo Cyfryzacji.

Test sztucznej inteligencji. Wiadomo, jak wypadły polskie modele AI

W pierwszym „polskim” teście dużych modeli językowych krajowe systemy AI, Bielik i PLLuM wypadły znacznie gorzej od globalnych narzędzi.

Prywatność i wizerunek a AI. Jak chronić dane w czasach nowych technologii?

Rozwój cyfrowy niesie za sobą szereg wyzwań związanych z ochroną naszych danych. Z czym wiąże się nieuprawnione wykorzystanie wizerunku? Jakie praktyczne problemy może stwarzać dla prywatności rozwój sztucznej inteligencji?

Czy zasady zawarte w Konstytucji RP chronią jednostkę przed stosowaniem sztucznej inteligencji?

Wprowadzenie SI do dziedzin życia, ma możliwości poprawy bezpieczeństwa i jakości życia jednostki. Jednak istniejące ryzyko naruszenia prywatności i bezpieczeństwa danych osobowych, zmusza do zapewnienia zgodności z prawem, przejrzystości działania systemów AI oraz ochrony wrażliwych danych, takich jak dane biometryczne.

REKLAMA

Sztuczna inteligencja w pismach procesowych: sąd wydał wyrok

W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.

Bezpłatny webinar: Automatyzacja finansów – AI i boty nie gryzą

Praktyczne scenariusze dla działów księgowych i finansowych. Sztuczna inteligencja i użycie botów symulujących pracę człowieka – to nie żadna futurystyka czy wstęp do masowych zwolnień. Istnieje cała masa powtarzalnych czynności, w których technologia może wyręczyć Waszych pracowników.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA