REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

"Foreign Affairs": rządy powinny uregulować kwestię AI, bo niedługo może być już na to za późno

Shutterstock

REKLAMA

REKLAMA

Błyskawiczny rozwój sztucznej inteligencji (AI) zmieni światową gospodarkę, ekonomię i politykę; podobnie jak poprzednie rewolucje technologiczne AI stworzy ogromne możliwości rozwoju, ale towarzyszyć im będą niespotykane dotychczas zagrożenia, w tym zmiany geopolityczne - piszą Ian Bremmer i Mustafa Suleyman na łamach magazynu "Foreign Affiars". Dlatego AI wymaga stworzenia nowych, ponadnarodowych regulacji, jeżeli prace nad nimi nie zaczną się teraz, niedługo może być na to za późno - ostrzegają autorzy.
rozwiń >

"Tempo rozwoju sztucznej inteligencji jest oszałamiające. (...) Ale AI różni się od innych technologii i inaczej wpływa na władzę. Nie tylko stawia wyzwania polityczne, jej hiperewolucyjny charakter sprawia, że rozwiązanie tych kwestii jest coraz trudniejsze. To właśnie paradoks mocy AI" - zaznaczają Bremmer (politolog zajmujący się kwestiami geopolityki) i Suleyman (przedsiębiorca z branży AI, współzałożyciel przejętej przez Google'a firmy DeepMind).

REKLAMA

Zmiana w strukturze władzy przez AI

W odróżnieniu od poprzednich rewolucji technologicznych, rozwój AI rozpocznie zasadniczą zmianę w światowej strukturze władzy i zagraża pozycji państw narodowych jako głównych aktorów geopolityki - przewidują autorzy "FA". W ciągu ostatniej dekady wielkie firmy technologiczne stały się de facto niezależnymi, suwerennymi podmiotami w stworzonych przez siebie cyfrowych domenach, przejmując władzę zarezerwowaną wcześniej dla państw narodowych. Rozwój AI tylko przyspieszy ten trend i przeniesie go daleko poza obszar świata cyfrowego - dodają Bremmer i Suleyman.

Wyzwania regulacyjne

"Złożoność tej technologii i szybkość jej rozwoju sprawią, że wprowadzenie przez rządy odpowiednich przepisów w rozsądnym tempie będzie praktycznie niemożliwe. Jeżeli rządy wkrótce się za to nie zabiorą, prawdopodobnie nigdy się to nie uda" - podkreślają autorzy.

Debaty na poziomie światowym

W Unii Europejskiej, USA, Wielkiej Brytanii, na forum G7 i ONZ już toczą się debaty i inicjowane są działania regulujące rozwój AI. Niestety zbyt duża część tych rozmów grzęźnie w pułapce niebezpiecznej, fałszywej alternatywy: wykorzystania AI do rozszerzenia władzy państw narodowych lub ograniczenia rozwoju tej technologii, by uniknąć związanych z tym zagrożeń - oceniają Bremmer i Suleyman.

Nowe ramy zarządzania AI

Tymczasem AI nie może być regulowana na wzór jakiejkolwiek poprzedniej technologii i wymaga zaprojektowania nowych ram zarządzania, które wyjdą poza tradycyjnie rozumianą zasadę suwerenności państw i będę współtworzone przez firmy technologiczne. Te podmioty mogą nie mieć legitymacji, której źródłem jest umowa społeczna czy demokratyczny wybór, ale bez ich udziału zarządzanie AI nie będzie miało żadnego sensu - argumentują autorzy artykułu w "FA". Podkreślają, że to tylko jeden z przykładów tego, jak w związku z rozwojem AI, społeczność międzynarodowa będzie musiała przemyśleć podstawowe założenia dotyczące porządku geopolitycznego.

Szybki rozwój i dostępność AI

Sztuczna inteligencja rozwija się w błyskawicznym tempie: stwarza nowe, nieznane wcześniej możliwości; coraz bardziej zaawansowane modele mogą działać na coraz bardziej dostępnym sprzęcie; oprogramowanie którego opracowanie kosztuje teraz setki milionów dolarów, będzie prawdopodobnie dostępne za dwa-trzy lata dla każdego jako open source. "Żadna technologia o tak potężnych możliwościach nie stała się tak szybko i tak szeroko dostępna" - zaznaczają Bremmer i Suleyman.

Potencjalne zagrożenia

AI może być charakteryzowana jako technologia podwójnego zastosowania, użyteczna zarówno w celach cywilnych, jak i wojskowych. Niezależnie od dobrych intencji twórców, programy używane do sterowania samochodami, będą mogły również sterować czołgami, a te pomagające w diagnostyce medycznej, mogą być wykorzystane do rozwijania broni biologicznej - ostrzegają autorzy. Dodają, że raz stworzone modele AI będą już dostępne na całym świecie, nie da się ich fizycznie ograniczyć, dlatego regulacje tej technologii muszą mieć międzynarodowy, globalny charakter i nie zawierać luk.

Skutki negatywne AI

Trudno sobie wyobrazić granice szkód, które może spowodować AI. Ta technologia może być wykorzystywana do szerzenia toksycznej dezinformacji, podważającej zaufanie społeczne i demokrację; do inwigilowania i manipulowania obywatelami; ograniczania ich wolności; tworzenia broni, która może fizycznie zagrażać ludziom - wyliczają Bremmer i Suleyman. AI może również przyczynić się do likwidacji milionów miejsc pracy, co pogłębi istniejące nierówności i stworzy nowe oraz utrwali dyskryminujące wzorce, albo wywołać niezamierzoną i niekontrolowaną eskalację zbrojną, która doprowadzi do wojny - uzupełniają.

Propozycje zarządzania AI

Bremmer i Suleyman postulują więc stworzenie co najmniej trzech nakładających się na siebie międzynarodowych systemów zarządzania AI, opartych o wspólne podejście "technoroztropności" (ang. technoprudentialism). Jego pierwszą zasadą powinna być ostrożność, w myśl maksymy, by "po pierwsze nie szkodzić" - maksymalne ograniczenie AI wymusiłoby rezygnację z jej potencjalnych, korzystnych dla ludzi zalet, ale nienałożenie na nią żadnych regulacji groziłoby wyzwoleniem jej wszystkich potencjalnie katastrofalnych wad - argumentują. Trzeba zapobiegać tym zagrożeniom zanim się zmaterializują, a nie łagodzić je po fakcie - podkreślają.

Trzy systemy zarządzania

Każdy z trzech systemów powinien mieć inne cele, uprawnienia i instytucje, każdy z nich może też inspirować się już istniejącymi rozwiązaniami, stworzonymi by radzić sobie z innymi globalnymi wyzwaniami - zmianą klimatu, ograniczeniem zbrojeń i międzynarodowym systemem finansowym - opisują eksperci. Pierwszy służyłby ustaleniu podstawowych faktów i terminów związanych z AI i byłby globalnym ciałem naukowym zajmującym się tą problematyką. Drugie, bardziej polityczne ciało zapobiegałoby wyścigowi zbrojeń między państwami w obszarze AI. Trzeci, techniczny regulator kontrolowałby rozwój AI od strony technicznej, zajmując się również aktorami niepaństwowymi, np. oprogramowaniem open source i regulowałby "geotechnologiczną stabilność" - wyliczają autorzy.

Konkluzja

"Te rozwiązania nie będą łatwe do wprowadzenia, wciąż brakuje tutaj woli politycznej (...) ale alternatywa, jaką jest nieograniczony rozwój AI, nie tylko stwarzałaby niedopuszczalne ryzyko dla globalnej stabilności, byłaby też niekorzystna dla biznesu i sprzeczna z interesem narodowym każdego z państw" - konkludują Bremmer i Suleyman.

adj/ jar/

Autopromocja

REKLAMA

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code
Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

REKLAMA

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

Czy sztuczna inteligencja jest szkodliwa dla środowiska?

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

Czy sztuczna inteligencja namiesza w tegorocznych wyborach?

Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

REKLAMA

Pracownicy nie wiedzą, czy w ich firmach korzysta się ze sztucznej inteligencji

Sztuczna inteligencja jednocześnie fascynuje i budzi obawy. Na rynku pracy są one związane z możliwą utratą miejsca pracy czy zmianami w strukturze zatrudnienia. Tym bardziej, że pracownicy często nie wiedzą, czy w ich firmach wykorzystuje się AI. 

Jak wykorzystać Gen. AI w biznesie? [10 zasadniczych kroków] Czy umiejętność korzystania ze sztucznej inteligencji daje przewagę konkurencyjną już teraz?

W dynamicznym świecie biznesu innowacje odgrywają kluczową rolę. Sztuczna inteligencja (AI) staje się rewolucyjnym narzędziem, zmieniającym sposób, w jaki firmy funkcjonują i konkurują na rynku. Rozwój generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, stał się punktem zwrotnym dla liderów biznesu, wyznaczając nowe standardy w dziedzinie technologii. W odpowiedzi na ten trend Lazarski University of Technology wprowadza innowacyjny program "Gen AI dla Biznesu", który nie tylko dostarcza teoretycznej wiedzy o sztucznej inteligencji, ale skupia się też na jej praktycznym wykorzystaniu w biznesie. Uczestnicy zdobędą nie tylko wiedzę, ale i niezbędne narzędzia do efektywnego wykorzystania AI w celu rozwijania innowacji i wzmacniania przewagi konkurencyjnej swoich firm.

REKLAMA