ChatGPT to eksperyment nieetyczny. Potrzebne moratorium na badania nad sztuczną inteligencją

ChatGPT nie umie odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej / shutterstock

ChatGPT to przełom o negatywnym charakterze; następuje bowiem przekroczenie bezpiecznej granicy rozwoju technologii. Można nawet powiedzieć – takie głosy są obecne – że szerokie udostępnienie ChatuGPT to w istocie eksperyment nieetyczny – mówi prof. Andrzej Zybertowicz, socjolog i doradca prezydenta RP.

„Zazwyczaj, zanim przeprowadzi się eksperyment na ludziach czy zwierzętach, jego możliwe skutki są obowiązkowo oceniane przez specjalne komisje. W tym przypadku poważna ingerencja w tkankę społeczną całej ludzkości przebiega żywiołowo” – wyjaśnił profesor. 

ChatGPT potęguje zgiełk informacyjny

„To wypuszczenie w przestrzeń społeczną narzędzia, które potęguje zgiełk informacyjny. Żyjemy w cyfrowej infosferze nasączającej nas każdego dnia strumieniami informacji, które nie układają się w wiedzę, nie układają się w prawdę ani w opowieści sensownie tłumaczące świat. Generowanie kolejnych fal informacji sprzyja dezinformacji rodzącej głębokie spolaryzowanie w wielu krajach. To zaś obok samotności staje się jednym z głównych wyzwań wielu nowoczesnych społeczeństw” – przestrzegł socjolog, mówiąc o zagrożeniach związanych z ChatemGPT.

Chat GPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy. Wyróżnia się np. tym, że jest w stanie pisać teksty o jakości porównywalnej do treści tworzonych przez utalentowanych ludzi. Wykorzystując techniki głębokiego uczenia się generuje odpowiedzi w czasie rzeczywistym w zależności od przedstawionych mu w pytaniu parametrów.

ChatGPT unieważnia ludzkie kompetencje

„To narzędzie, które niemal całkowicie unieważnia niektóre ludzkie kompetencje. Przez rozwój sztucznej inteligencji zostają również zaburzone sprawdzone i tradycyjne zasady porządkowania rzeczywistości – np. zdjęcie czy film tracą wartość wiarygodnego źródła informacji o czymś, co obiektywnie zaistniało. Być może jesteśmy też o krok od śmierci sztuki” – ocenił prof. Zybertowicz.

Zdaniem eksperta powszechność ChatuGPT może również wpłynąć na osłabienie więzi społecznych, a nawet intymnych kontaktów międzyludzkich. „Poza pewnymi przydatnymi funkcjami, które oczywiście istnieją, jest także zabawką atrakcyjniejszą od kontaktów z rówieśnikami, rodzicami czy ludzką kulturą w ogóle” – powiedział.

ChatGPT tworzy tylko warstwy rzeczywistości językowej

„ChatGPT nie umie (na razie!) odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej. Ale za pomocą opowieści kompletnie fikcyjnych także można zarządzać ludzką wyobraźnią, mobilizować lub demobilizować do aktywności. Wygląda na to, że niebawem – o ile już się tak nie stało – systemy sztucznej inteligencji będą w stanie tworzyć opowieści o wiele bardziej kuszące, perswazyjnie efektywniejsze, niż to, co potrafią zaoferować ludzie” – zwrócił uwagę profesor. „Możemy stać się ofiarami albo tych, którzy będą dysponentami systemów sztucznej inteligencji, albo – jeśli się ona zautonomizuje – jej samej. W obu przypadkach oddziaływanie negatywne może być równie silnie” – ostrzegł.

Największe zagrożenie dla ludzkości

„Moim zdaniem nie ma obecnie dla ludzkości większego zagrożenia niż niekontrolowany rozwój sztucznej inteligencji. W odróżnieniu od wcześniej budowanych przez ludzkość technologii, ta ma potencjał kompletnego wymknięcia się spod kontroli” – zaznaczył prof. Zybertowicz. 

Mówiąc o tym, jak należy reagować na możliwie niekontrolowany rozwój technologii, prof. Zybertowicz przypomniał o „podpisanym przez tysiące badaczy apelu o wprowadzenie moratorium, czyli powstrzymanie badań nad sztuczną inteligencją na minimum pół roku, zanim eksperci i politycy zastanowią się, jak dalsze badania można prowadzić w sposób bezpieczny dla ludzkości”.

„W polskich kręgach analitycznych prowadzone są pilne badania. Także w Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej w Warszawie przygotowujemy pogłębiony raport z rekomendacjami dla kierownictwa państwa” – podsumował prof. Zybertowicz. (PAP)

Oprac. Piotr T. Szymański
rozwiń więcej
Sztuczna inteligencja (AI)
Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)
02 kwi 2024

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365
27 mar 2024

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji
13 mar 2024

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża
13 mar 2024

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę
04 mar 2024

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?
22 lut 2024

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

Czy sztuczna inteligencja jest szkodliwa dla środowiska?
22 lut 2024

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

Czy sztuczna inteligencja namiesza w tegorocznych wyborach?
19 lut 2024

Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

Pracownicy nie wiedzą, czy w ich firmach korzysta się ze sztucznej inteligencji
02 lut 2024

Sztuczna inteligencja jednocześnie fascynuje i budzi obawy. Na rynku pracy są one związane z możliwą utratą miejsca pracy czy zmianami w strukturze zatrudnienia. Tym bardziej, że pracownicy często nie wiedzą, czy w ich firmach wykorzystuje się AI. 

Jak wykorzystać Gen. AI w biznesie? [10 zasadniczych kroków] Czy umiejętność korzystania ze sztucznej inteligencji daje przewagę konkurencyjną już teraz?
01 lut 2024

W dynamicznym świecie biznesu innowacje odgrywają kluczową rolę. Sztuczna inteligencja (AI) staje się rewolucyjnym narzędziem, zmieniającym sposób, w jaki firmy funkcjonują i konkurują na rynku. Rozwój generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, stał się punktem zwrotnym dla liderów biznesu, wyznaczając nowe standardy w dziedzinie technologii. W odpowiedzi na ten trend Lazarski University of Technology wprowadza innowacyjny program "Gen AI dla Biznesu", który nie tylko dostarcza teoretycznej wiedzy o sztucznej inteligencji, ale skupia się też na jej praktycznym wykorzystaniu w biznesie. Uczestnicy zdobędą nie tylko wiedzę, ale i niezbędne narzędzia do efektywnego wykorzystania AI w celu rozwijania innowacji i wzmacniania przewagi konkurencyjnej swoich firm.

pokaż więcej
Proszę czekać...