REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Chat GPT - nowa broń hakerów i specjalistów ds. cyberbezpieczeństwa!

ChatGPT
Chat GPT - nowa broń nie tylko dla hakerów
Shutterstock

REKLAMA

REKLAMA

Chat GPT, to jedno z narzędzi AI. Wyścig zbrojeń pomiędzy dostawcami systemów bezpieczeństwa IT a hakerami nasili się wraz z nadejściem tej nowej tej broni, jaką jest generatywna sztuczna inteligencja. 

ChatGPT, Google Bard - era technologii AI

REKLAMA

Takie narzędzia jak ChatGPT czy Google Bard sprawiły, że technologia trafiła pod strzechy i stała się dostępna oraz bardziej zrozumiała dla przeciętnego konsumenta. Niektórzy się z tego powodu cieszą, inni ostrzegają przed nadchodzącym Armagedonem. Najczęściej o generatywnej sztucznej inteligencji dyskutuje się w kontekście utraty miejsc pracy, ale pojawiają się też obawy o wykorzystanie chatbotów przez cyberprzestępców. 

REKLAMA

- Generatywne modele AI mają na celu ułatwienie komunikacji i dostarczenie użytkownikom pomocnych odpowiedzi. Jednak staną się niebezpiecznym narzędziem w rękach hakerów, niosącym ryzyko włamań i naruszeń danych. Jest to jednak broń obosieczna i mogą z niej skorzystać również dostawcy systemów ochrony IT, bądź pracownicy Centrów Operacji Bezpieczeństwa - tłumaczy Robert Dziemianko, marketing manager w G DATA Software Sp. z o.o. 

ChatGPT, czyli jeszcze więcej spamu

REKLAMA

Skrzynki pocztowe internautów od lat zasypują e-maile pochodzące od nigeryjskich książąt, handlarzy narkotyków i cudownych medykamentów, bądź promotorów inwestycji, których nie można przegapić. Wprawdzie producenci systemów bezpieczeństwa IT udoskonalają filtry antyspamowe, ale to tylko inspiruje napastników do opracowywania nowych, skuteczniejszych metod przełamywania zabezpieczeń. 

W ciągu ostatnich dwóch lat jakość wysyłanych przez cyberprzestępców e-mail wyraźnie się poprawiła. Coraz trudniej znaleźć w nich błędy ortograficzne i gramatyczne czy archaiczne zwroty. Ponadto oszuści sięgają po tematy nawiązujące do bieżących wydarzeń polityczno-społecznych (pandemia, wojna na Ukrainie, rachunki za energię elektryczną). Niestety, ChatGPT i jego kuzyni pozwolą napastnikom tworzyć jeszcze bardziej wiarygodne wiadomości, a co za tym idzie „łowić” dużo więcej ofiar niż do tej pory. Niewykluczone, że spamerzy przestaną uderzać na oślep, bowiem generatywna sztuczna inteligencja pozwoli im kierować e-maile do wyselekcjonowanych osób. Natomiast wiadomości staną się bardziej przekonujące, bowiem będą bazować na ogólnodostępnych informacjach, takich jak posty w mediach społecznościowych. Poza tym zniknie bariera językowa i geograficzna, bowiem chatbot bez trudu wygeneruje informacje w dowolnym języku. 

Eksperci zwracają uwagę na zagrożenie związane z rozprzestrzenianiem ataków BEC (Business E-mail Compromise). To specyficzny rodzaj spamu, charakteryzujący się tym, iż napastnicy wybierają potencjalną ofiarę. Oszuści najczęściej wysyłają wiadomość w imieniu prezesa firmy, dyrektora finansowego czy innego menedżera wysokiego szczebla do pracownika, zawierającą polecenie przelania środków finansowych na podany numer konta. Jak wynika z danych FBI w 2021 straty amerykańskich przedsiębiorstw, które dały się nabrać na ten przekręt wyniosły 2,4 mld USD i były 51 razy wyższe aniżeli szkody wywołane przez ransomware. 

Dalszy ciąg materiału pod wideo

Jednak, aby atak BEC się powiódł napastnicy muszą uzyskać dostęp do systemów komputerowych firmy w celu uzyskania informacji o procedurach, komunikacji, a także danych osobowych personelu. W tym przypadku również mogą liczyć na „wsparcie” ze strony sztucznej inteligencji, która pomoże zautomatyzować ataki, skanować powierzchnie ataków Hakerzy po przejęciu wewnętrznej korespondencji e-mail i niepublicznych raportów, mogą wykorzystać sztuczną inteligencję do generowania przekonujących wiadomość. Na przykład, „Andrzej, fajnie było zjeść obiad z Tobą i Twoją żoną, powinniśmy to powtórzyć. Tymczasem, potrzebuję, żebyś przesłał 10 tysięcy złotych. Pieniądze są niezbędne do rozpoczęcia prac nad projektem, o którym ostatnio dyskutowaliśmy”. 

Chatboty do naśladowania głosów ludzkich

Innym poważnym zagrożeniem jest wykorzystanie chatbotów do naśladowania głosów ludzkich. Jest to wyjątkowo niebezpieczne zjawisko, co pokazał chociażby eksperyment przeprowadzony przez Joan Stern - dziennikarkę The Wall Street Journal. Otóż specjalistyczne oprogramowanie sklonowało jej głos na podstawie 90 minutowego nagrania. Sztuczny głos Joan Stern był tak dobry, że oszukał system biometryczny banku.

Polecamy: „Instrukcje księgowego. 101 praktycznych procedur z bazą narzędzi online”

Sztuczna inteligencja po dobrej stronie mocy

Sztuczna inteligencja może być sprzymierzeńcem nie tylko hakerów, ale też specjalistów ds. cyberbezpieczeństwa. Już od pewnego czasu dostawcy rozwiązań chroniących sieci wykorzystują w swoich rozwiązaniach uczenie maszynowe czy sztuczną inteligencję. Dobry przykład stanowią systemy EDR (Endpoint Detection and Response) analizujące oraz identyfikujące nietypowe zdarzenia zachodzące w sieci.Producenci nie stoją w miejscu i rozwijają techniki mające powstrzymać zapędy hakerów.

Jedną z największych zalet sztucznej inteligencji jest automatyzacja codziennych zadań, dzięki czemu specjaliści mogą skupić się na bardziej kreatywnej lub czasochłonnej pracy. Sztuczną inteligencję można być bardzo przydatna przy tworzeniu lub zwiększaniu wydajności skryptów używanych przez inżynierów ds. bezpieczeństwa cybernetycznego lub administratorów systemów. Technologia pozwala też proaktywnie znajdować luki w zabezpieczeniach sieci, a także automatyzuje takie zadania jak ustawianie alertów dla określonych słów kluczowych i wykrywanie poufnych informacji online. Łowcy zagrożeń będąc coraz szerzej wykorzystywać sztuczną inteligencję do nietypowych wzorców i podsumowywania dużych ilości danych, łącząc kropki w wielu źródłach informacji i ukrytych wzorcach.

- Nie możemy zaprogramować narzędzi generatywnej sztucznej inteligencji tak, aby działały jak człowiek. Natomiast sprawdzają się wsparcie, zwłaszcza w procesach analizowania danych i tworzenia danych wyjściowych w oparciu o informacje, które wprowadzamy. Chociaż sztuczna inteligencja dokonała w krótkim czasie wielkich postępów, nadal generuje fałszywe alarmy, a człowiek musi je zidentyfikować - podsumowuje Robert Dziemianko.

Zobacz także: Oszustwo nigeryjskie

Autopromocja

REKLAMA

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
AI w Polsce do 2030 roku jak 4,9 mln osób. Wartość produkcyjna: 90 mld USD rocznie [prognoza]

Wśród beneficjentów AI znajdzie się Polska, która może zyskać nawet 90 mld dolarów rocznie. Polska znalazła się na siódmym miejscu wśród gospodarek z UE, USA, Wielkiej Brytanii i Szwajcarii o najwyższej rocznej zdolności produkcyjnej wytworzonej dzięki wsparciu tej technologii - wynika z raportu firmy EY. Podano, że AI pozwoli osiągnąć w Polsce wartość produkcyjną odpowiadającą pracy 4,9 mln osób.

Sterowanie komputerem falami mózgowymi, mruganiem oczu, mrugania lub zaciskaniem zębów. AI + Neurotechnologia dla integracji niepełnosprawnych

Dwie firmy połączyły siły w celu wsparcia integracji osób niepełnosprawnych dzięki sztucznej inteligencji i neuro-technologiom. Celem jest rozwój i doskonalenie nowego rodzaju interfejsu mózg-maszyna, który przekształca różnorodne dane neurofizjologiczne (fale mózgowe, aktywność serca, mimikę twarzy, ruchy oczu) w polecenia mentalne. Pierwsze efekty będą widoczne już niedługo podczas sztafety z pochodnią olimpijską.

Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

REKLAMA

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

REKLAMA

Czy sztuczna inteligencja jest szkodliwa dla środowiska?

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

Czy sztuczna inteligencja namiesza w tegorocznych wyborach?

Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

REKLAMA