REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Sztuczna inteligencja może być równie niebezpieczna jak broń nuklearna - alarmują naukowcy!

AI, ludzkość, przyszłość
Sztuczna inteligencja jak broń nuklearna
shutterstock

REKLAMA

REKLAMA

Sztuczna inteligencja (AI) może doprowadzić do zniszczenia ludzkości. Ryzyko takie powinno być traktowane równie poważnie, jak zagrożenie wojną nuklearną - czytamy "USA Today". Setki ekspertów podpisały się pod specjalnym oświadczeniem w sprawie AI.

Sztuczna inteligencja może zniszczyć ludzkość

Oświadczenie ekspertów w sprawie AI opublikowała organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.

REKLAMA

REKLAMA

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany "ojcem chrzestnym sztucznej inteligencji", który odszedł z Google'a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.

"Sądzę, że jeżeli coś pójdzie źle w (rozwoju) tej technologii, to może pójść całkiem źle. (...) Chcemy współpracować z rządem, aby temu zapobiec" - powiedział niedawno Altman przed komisją Senatu USA. Wyjaśnił też, że szczególnie niepokojący jest scenariusz, w którym AI "rozwinie zdolność do autoreplikacji i wyrwie się na wolność".

Błyskawiczna ewolucja technologii AI

Hinton ostrzega, że coraz bardziej niepokoi go błyskawiczna ewolucja technologii AI, w tym jej zdolność "rozwijania prostego rozumowania poznawczego" - relacjonuje "USA Today". Ekspert powiedział też niedawno, że najgorszy scenariusz dotyczący rozwoju AI jest realny i "całkiem możliwe jest, że ludzkość jest tylko przejściową fazą rozwoju inteligencji".

REKLAMA

W pisemnym dokumencie przygotowanym przed wystąpieniem w Senacie Altman napisał, że zdaniem niezależnych ekspertów obszary, które należy nadzorować w rozwoju AI, to jej zdolność "generowania nieprawdziwych informacji", czyli tzw. halucynowania, a także dostarczenie informacji na temat broni konwencjonalnej i niekonwencjonalnej.

Dalszy ciąg materiału pod wideo

Jak podkreśla Hinton, to że AI może uczyć się zupełnie nieoczekiwanego zachowania ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni.

Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową - uważa Hinton.

Jednak inni eksperci oceniają, że przesadny niepokój związany z rozwojem AI jest nieuzasadniony, ponieważ jest to "niezmiernie wyrafinowana platforma programująca, która jednak może pójść tylko tak daleko, jak pozwolą jej ludzie" - pisze "USA Today".

AI bardziej inteligentna niż ludzie

W wywiadzie dla "New York Timesa" z początku maja Hinton powiedział: "Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę".

fit/ ap/

Autopromocja

REKLAMA

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code
Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
AI w biznesie. Większość firm ogranicza się do pilotażów i eksperymentów

AI ma być najbardziej dochodowym sektorem w gospodarce globalnej w ogóle, obok przemysłu zbrojeniowego. Tymczasem na obecnym etapie sektor biznesu wyraża ostrożne zainteresowanie sztuczną inteligencją. Okazuje się bowiem, że większość firm ogranicza się do pilotażów i eksperymentowania.

AI w Polsce do 2030 roku jak 4,9 mln osób. Wartość produkcyjna: 90 mld USD rocznie [prognoza]

Wśród beneficjentów AI znajdzie się Polska, która może zyskać nawet 90 mld dolarów rocznie. Polska znalazła się na siódmym miejscu wśród gospodarek z UE, USA, Wielkiej Brytanii i Szwajcarii o najwyższej rocznej zdolności produkcyjnej wytworzonej dzięki wsparciu tej technologii - wynika z raportu firmy EY. Podano, że AI pozwoli osiągnąć w Polsce wartość produkcyjną odpowiadającą pracy 4,9 mln osób.

Sterowanie komputerem falami mózgowymi, mruganiem oczu, mrugania lub zaciskaniem zębów. AI + Neurotechnologia dla integracji niepełnosprawnych

Dwie firmy połączyły siły w celu wsparcia integracji osób niepełnosprawnych dzięki sztucznej inteligencji i neuro-technologiom. Celem jest rozwój i doskonalenie nowego rodzaju interfejsu mózg-maszyna, który przekształca różnorodne dane neurofizjologiczne (fale mózgowe, aktywność serca, mimikę twarzy, ruchy oczu) w polecenia mentalne. Pierwsze efekty będą widoczne już niedługo podczas sztafety z pochodnią olimpijską.

Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

REKLAMA

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

REKLAMA

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

Czy sztuczna inteligencja jest szkodliwa dla środowiska?

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

REKLAMA