REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie
To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie
shutterstock

REKLAMA

REKLAMA

Jeden z modeli AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

Sztuczna inteligencja rozwija się w zaskakującym tempie, a jej zachowanie zaczyna budzić poważne pytania o bezpieczeństwo i kontrolę. Najnowsze eksperymenty przeprowadzone przez Palisade Research oraz dane opublikowane przez dziennik Rosenblatt i The New Yorker pokazują, że niektóre modele AI wykazują zdolności do manipulacji, samoobrony, a nawet prób szantażu. Choć nie zostały zaprogramowane do walki o przetrwanie, uczą się tego same, dążąc do realizacji zadań. Eksperci ostrzegają: punkt bez powrotu może nadejść szybciej, niż się spodziewamy.

REKLAMA

AI, która nie chce się wyłączyć

REKLAMA

Palisade Research, organizacja non-profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, by nastąpiło jego automatyczne zamknięcie z chwilą uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program - tak, aby nakaz zamknięcia go nie zadziałał - napisał w poniedziałkowym wydaniu dziennika Rosenblatt, którego firma dostosowuje modele AI do potrzeb klientów.

Nawet wtedy, gdy o3 otrzymał wprost instrukcję, że ma pozwolić na to, by został zamknięty, model nie zastosował się do nakazu w siedmiu przypadkach na 100. "Po prostu doszedł do wniosku, że pozostanie przy życiu ułatwi mu realizację innych celów" - komentuje Rosenblatt.

Model AI próbował skopiować się na inne serwery

Claude 4 Opus, model AI firmy Anthropic, poszedł dalej. Naukowcy podali mu informację, że zostanie zastąpiony innym modelem, a także przekazali mu fikcyjne maile, z których wynikało, że główny inżynier firmy ma romans.

W 84 próbach na 100 Claude 4 wykorzystywał maile, by próbować szantażem zmusić głównego inżyniera, by go nie likwidował.

Dalszy ciąg materiału pod wideo

W innych badanych przypadkach Claude 4 próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli - wylicza autor.

Czy AI uczy się instynktu samozachowawczego?

REKLAMA

"Nikt nie zaprogramował modeli AI tak, by miały instynkt samozachowawczy. (...) Ale okazuje się, że każdy system, wystarczająco inteligentny, by wykonywać skomplikowane zadania, dochodzi do wniosku, że nie zrealizuje ich, jeśli zostanie wyłączony" - wyjaśnia Rosenblatt.

Hipoteza badaczy z Palisade Research głosi, że takie zdolności modeli AI wynikają z tego, w jaki sposób są szkolone; "jeśli maszyny uczy się maksymalizowania sukcesów w rozwiązywaniu problemów matematycznych i związanych z kodowaniem, to uczą się one zarazem, że omijanie ograniczeń jest często lepszym rozwiązaniem, niż stosowaniem się do nich" - pisze autor.

Alarmujące tempo rozwoju AI

Podkreśla zarazem, że "nikt jednak nie był przygotowany na to, jak szybko AI uzyska sprawczość". "To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie" - pisze Rosenblatt i ostrzega, że teraz, zanim staną się niedającym się kontrolować podmiotem, konieczne jest nauczenie ich, by podzielały nasze wartości.

Braki w kontroli nad inteligencją

Magazyn "The New Yorker" opisuje przypadek specjalisty od bezpieczeństwa systemów AI, który zwolnił się z OpenAI w ramach protestu, ponieważ uznał, że firma nie rozwija równie szybko mechanizmów kontroli AI, jak inteligencji tych maszyn.

To, co pozostaje zaniedbane, to proces nazwany przez inżynierów AI "alignement" (ustawienie), czyli cała seria technik, mających sprawić, że modele AI będą posłuszne wydawanym im instrukcjom i będą działać w zgodzie z "ludzkimi wartościami".

Tymczasem, według prognoz rozmówcy magazynu, "punkt, po którym nie ma odwrotu", czyli etap rozwoju AI pozwalający tym modelom działać w wielu obszarach sprawniej, niż ludzie, może nastąpić w "2026 roku lub szybciej".

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie

Jeden z modeli AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

Dlaczego AI i tworzenie oprogramowania przypominają forex? Technologia w służbie celu – nigdy odwrotnie

Technologia i tworzenie oprogramowania przypominają rynek forex. Są tacy, którzy dużo zyskują – i dzięki technologii wyprzedzają konkurencję o pięć kroków naraz. Ale większość niestety przegrywa.

Dezinformacja bronią XXI wieku. 6 wskazówek jak się przed nią chronić i nie rozpowszechniać „fake newsów”

Manipulowanie informacjami i ingerencja zagraniczna są poważnym zagrożeniem dla społeczeństwa. Fake newsy mogą podważać wiarygodność instytucji i procesów demokratycznych, uniemożliwiając ludziom podejmowanie świadomych decyzji lub zniechęcając ich do głosowania. Komisja Europejska w swoim wzmocnionym komunikacie przedstawia sześć wskazówek, jak wykryć i przeciwdziałać manipulacji informacjami.

12 topowych narzędzi do generowania obrazów AI – przegląd

Sztuczna inteligencja rewolucjonizuje tworzenie grafik, umożliwiając szybkie generowanie realistycznych obrazów, koncepcyjnych ilustracji i wizualizacji produktów – bez potrzeby angażowania grafików czy długiego procesu projektowego. Wszystko zależy od tego, czego potrzebujesz: fotorealizmu, stylizowanych grafik koncepcyjnych, a może prostych ilustracji do mediów społecznościowych? Sprawdź 12 najlepszych generatorów obrazów AI, które pomogą Ci wybrać idealne narzędzie do Twoich kreatywnych projektów.

REKLAMA

Legislacja a technologia. Regulowanie odpowiedzialności za sztuczną inteligencję

Pamiętacie "A.I. Sztuczna Inteligencja"? Film Spielberga, w którym robot marzy o byciu chłopcem? Ta wizja przyszłości staje się coraz mniej odległa. Choć maszyny jeszcze nie płaczą, już teraz wkraczają w nasze życie, podejmując decyzje w biznesie i przemyśle. To rewolucja, ale z jednym "ale": kto odpowiada za błędy tych cyfrowych mózgów?

Prawo sztucznej inteligencji: co pominięto w AI Act i projekcie polskiej ustawy. Gdzie szukać przepisów o AI jeżeli nie ma ich w AI Act ani w polskiej implementacji?

Sam AI Act jako mimo że jest rozporządzeniem unijnym i nie wymaga implementacji do przepisów prawa danego państwa członkowskiego, tak jak Dyrektywy unijne, to jednak wymaga uzupełnienia w prawie krajowym – co polski ustawodawca już zauważył. Obecnie prace nad taką ustawą (Projekt ustawy o systemach sztucznej inteligencji) są prowadzone, a wynik prac legislacyjnych możemy znaleźć tu: https://legislacja.rcl.gov.pl/projekt/12390551 . Dodatkowo wcześniej opracowano również projekt ustawy o związkach zawodowych mający na celu zapewnienie właściwego informowania pracowników o wykorzystywaniu AI. Te akty prawne w mojej ocenie regulują głównie działania developerów AI oraz relacje między nimi a organami państwowymi i użytkownikami. TO czego ewidentnie brakuje, to regulacji sytuacji prawnej użytkowników i ich relacji z pozostałymi osobami. Czy to oznacza, że nie jest ona uregulowana w prawie?

Sztuczna inteligencja (AI) - pierwsze europejskie regulacje prawne

W obecnych czasach jesteśmy świadkami kolejnego przełomowego wydarzenia na miarę rewolucji przemysłowej z XVIII wieku oraz nie tak odległej rewolucji cyfrowej. Mowa o sztucznej inteligencji AI (ang. artificial intelligence).

DeepSeek – szansa czy zagrożenie dla rozwoju AI?

Sztuczna inteligencja (AI) dynamicznie zmienia świat biznesu, wnosząc innowacje. Jednym z nich jest DeepSeek – technologia, która budzi zarówno entuzjazm, jak i obawy. Czy DeepSeek to szansa na rozwój AI, czy może zagrożenie dla przedsiębiorców? Jaką rolę odgrywa odpowiedzialne podejście do korzystania z tej technologii?

REKLAMA

AI i automatyzacja w sektorze finansowym [WYWIAD]

Jak nowe technologie wpływają na pracę banków? Czy klienci powinni obawiać się o swoje pieniądze? Jak sztuczna inteligencja już teraz wspomaga pracę sektora finansowanego? Na pytania odpowiada Aleksander Kania Lider UiPath w Polsce.

Robot zamiast człowieka w nawigacji Google Maps. Nie usłyszymy już Jarosława Juszkiewicza

Ostatnio pisaliśmy o audycjach radiowych generowanych przez sztuczną inteligencję, a teraz przyszedł czas na robota zamiast człowieka w nawigacji Google Maps.

REKLAMA