REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Czy sztuczna inteligencja może doprowadzić do wyginięcia ludzkości?

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
AI
Sztuczna inteligencja może być zdolna, by zabijać ludzi

REKLAMA

REKLAMA

Systemy sztucznej inteligencji (AI) mogą w ciągu zaledwie dwóch lat stać się wystarczająco potężne, by zabić wielu ludzi, więc przez ten czas trzeba znaleźć sposób na ich kontrolowanie - ostrzegł Matt Clifford, doradca brytyjskiego premiera Rishiego Sunaka ds. sztucznej inteligencji.

Clifford, który pomaga premierowi w utworzeniu rządowej grupy zadaniowej ds. sztucznej inteligencji, powiedział, że jeśli ludzkość nie znajdzie sposobu na kontrolowanie tej technologii, decydenci powinni być przygotowani na szereg zagrożeń, od cyberataków po tworzenie broni biologicznej.

REKLAMA

AI bardziej inteligentna niż ludzie

REKLAMA

"Jeśli spróbujemy stworzyć sztuczną inteligencję, która jest bardziej inteligentna niż ludzie i nie będziemy wiedzieć, jak ją kontrolować, to stworzy to potencjał dla wszelkiego rodzaju zagrożeń teraz i w przyszłości. Słuszne, że powinno to być bardzo wysoko w programach rządzących" - powiedział w rozmowie z TalkTV. Jak dodał, tym co go w obecnej sytuacji najbardziej niepokoi, to fakt, że "ludzie, którzy budują najbardziej wydajne systemy (sztucznej inteligencji), swobodnie przyznają, że nie rozumieją dokładnie, w jaki sposób przejawiają one takie zachowania, jakie przejawiają".

Clifford został zapytany m.in. o oświadczenie podpisane w zeszłym tygodniu przez ponad 350 ekspertów zajmujących się sztuczną inteligencją, w tym szefa OpenAI, firmy odpowiedzialnej za stworzenie ChatGPT, w którym ostrzegli oni, że w dłuższej perspektywie istnieje również ryzyko, że technologia ta może doprowadzić do wyginięcia ludzkości.

Ryzyko egzystencjalne

"Ryzyko egzystencjalne, o którym jak sądzę, mówili autorzy listu, dotyczy tego (...), co się stanie, gdy skutecznie stworzymy nowy gatunek, inteligencję, która jest większa niż ludzka" - powiedział. Zapytany, w jakim czasie może to nastąpić, odparł, że spektrum czasowe wśród ekspertów od sztucznej inteligencji jest bardzo szerokie, ale w najbardziej skrajnej obecnie perspektywie, może to się stać w ciągu dwóch lat. Zastrzegł jednak, że nie ma na myśli zniszczenia całej ludzkości, lecz zdolności do zabijania wielu ludzi, a także, że niektórzy eksperci mówią o dekadach.

Potrzeba kontrolowania sztucznej inteligencji

Clifford dodał, że te dwa lata to czas, w którym ludzkość musi znaleźć sposób na skuteczne kontrolowanie sztucznej inteligencji, zanim stanie się ona niemożliwa do opanowania. Podkreślił też, że sztuczna inteligencja ma potencjał, by stać się przytłaczającą siłą dobra - pod warunkiem, że znajdziemy sposoby na jej kontrolowanie. "Jeśli wszystko pójdzie dobrze, można sobie wyobrazić sztuczną inteligencję leczącą choroby, zwiększającą produktywność gospodarki, pomagającą nam osiągnąć gospodarkę neutralną pod względem emisji dwutlenku węgla" - powiedział.

Dalszy ciąg materiału pod wideo

Z Londynu Bartłomiej Niedziński

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
BBC ostrzega: Google zabije internet. Kto zapłaci twórcom treści, dziennikarzom, skoro roboty nie klikają w reklamy?

Internet powstał z myślą o ludziach, ale jego przyszłość może należeć do maszyn. W nowym paradygmacie to nie my przeglądamy sieć – to sztuczna inteligencja przegląda ją za nas. Taki scenariusz przedstawia dziennikarz BBC Thomas Germain. Czy to koniec swobodnego eksplorowania sieci i początek epoki zunifikowanych informacji, w której algorytm decyduje, co powinniśmy wiedzieć, a co lepiej pominąć?

Sztuczna inteligencja zabierze 14% miejsc pracy. Jak wdrożyć AI w firmie i dlaczego nie można z tym zwlekać?

Automatyzacja i sztuczna inteligencja nie są już przyszłością – stały się teraźniejszością. Firmy stoją przed trudnym wyborem: albo zaczną zmiany już teraz, albo zderzą się z brutalną rzeczywistością, a na adaptację do niej nie będzie czasu. Jak odpowiedzialnie i skutecznie przygotować organizację oraz ludzi do nieuniknionych przemian?

To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie

Jeden z modeli AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

Dlaczego AI i tworzenie oprogramowania przypominają forex? Technologia w służbie celu – nigdy odwrotnie

Technologia i tworzenie oprogramowania przypominają rynek forex. Są tacy, którzy dużo zyskują – i dzięki technologii wyprzedzają konkurencję o pięć kroków naraz. Ale większość niestety przegrywa.

REKLAMA

Dezinformacja bronią XXI wieku. 6 wskazówek jak się przed nią chronić i nie rozpowszechniać „fake newsów”

Manipulowanie informacjami i ingerencja zagraniczna są poważnym zagrożeniem dla społeczeństwa. Fake newsy mogą podważać wiarygodność instytucji i procesów demokratycznych, uniemożliwiając ludziom podejmowanie świadomych decyzji lub zniechęcając ich do głosowania. Komisja Europejska w swoim wzmocnionym komunikacie przedstawia sześć wskazówek, jak wykryć i przeciwdziałać manipulacji informacjami.

12 topowych narzędzi do generowania obrazów AI – przegląd

Sztuczna inteligencja rewolucjonizuje tworzenie grafik, umożliwiając szybkie generowanie realistycznych obrazów, koncepcyjnych ilustracji i wizualizacji produktów – bez potrzeby angażowania grafików czy długiego procesu projektowego. Wszystko zależy od tego, czego potrzebujesz: fotorealizmu, stylizowanych grafik koncepcyjnych, a może prostych ilustracji do mediów społecznościowych? Sprawdź 12 najlepszych generatorów obrazów AI, które pomogą Ci wybrać idealne narzędzie do Twoich kreatywnych projektów.

Legislacja a technologia. Regulowanie odpowiedzialności za sztuczną inteligencję

Pamiętacie "A.I. Sztuczna Inteligencja"? Film Spielberga, w którym robot marzy o byciu chłopcem? Ta wizja przyszłości staje się coraz mniej odległa. Choć maszyny jeszcze nie płaczą, już teraz wkraczają w nasze życie, podejmując decyzje w biznesie i przemyśle. To rewolucja, ale z jednym "ale": kto odpowiada za błędy tych cyfrowych mózgów?

Prawo sztucznej inteligencji: co pominięto w AI Act i projekcie polskiej ustawy. Gdzie szukać przepisów o AI jeżeli nie ma ich w AI Act ani w polskiej implementacji?

Sam AI Act jako mimo że jest rozporządzeniem unijnym i nie wymaga implementacji do przepisów prawa danego państwa członkowskiego, tak jak Dyrektywy unijne, to jednak wymaga uzupełnienia w prawie krajowym – co polski ustawodawca już zauważył. Obecnie prace nad taką ustawą (Projekt ustawy o systemach sztucznej inteligencji) są prowadzone, a wynik prac legislacyjnych możemy znaleźć tu: https://legislacja.rcl.gov.pl/projekt/12390551 . Dodatkowo wcześniej opracowano również projekt ustawy o związkach zawodowych mający na celu zapewnienie właściwego informowania pracowników o wykorzystywaniu AI. Te akty prawne w mojej ocenie regulują głównie działania developerów AI oraz relacje między nimi a organami państwowymi i użytkownikami. TO czego ewidentnie brakuje, to regulacji sytuacji prawnej użytkowników i ich relacji z pozostałymi osobami. Czy to oznacza, że nie jest ona uregulowana w prawie?

REKLAMA

Sztuczna inteligencja (AI) - pierwsze europejskie regulacje prawne

W obecnych czasach jesteśmy świadkami kolejnego przełomowego wydarzenia na miarę rewolucji przemysłowej z XVIII wieku oraz nie tak odległej rewolucji cyfrowej. Mowa o sztucznej inteligencji AI (ang. artificial intelligence).

DeepSeek – szansa czy zagrożenie dla rozwoju AI?

Sztuczna inteligencja (AI) dynamicznie zmienia świat biznesu, wnosząc innowacje. Jednym z nich jest DeepSeek – technologia, która budzi zarówno entuzjazm, jak i obawy. Czy DeepSeek to szansa na rozwój AI, czy może zagrożenie dla przedsiębiorców? Jaką rolę odgrywa odpowiedzialne podejście do korzystania z tej technologii?

REKLAMA