REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

ChatGPT to eksperyment nieetyczny. Potrzebne moratorium na badania nad sztuczną inteligencją

ChatGPT nie umie odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej
shutterstock

REKLAMA

REKLAMA

ChatGPT to przełom o negatywnym charakterze; następuje bowiem przekroczenie bezpiecznej granicy rozwoju technologii. Można nawet powiedzieć – takie głosy są obecne – że szerokie udostępnienie ChatuGPT to w istocie eksperyment nieetyczny – mówi prof. Andrzej Zybertowicz, socjolog i doradca prezydenta RP.

„Zazwyczaj, zanim przeprowadzi się eksperyment na ludziach czy zwierzętach, jego możliwe skutki są obowiązkowo oceniane przez specjalne komisje. W tym przypadku poważna ingerencja w tkankę społeczną całej ludzkości przebiega żywiołowo” – wyjaśnił profesor. 

REKLAMA

REKLAMA

ChatGPT potęguje zgiełk informacyjny

„To wypuszczenie w przestrzeń społeczną narzędzia, które potęguje zgiełk informacyjny. Żyjemy w cyfrowej infosferze nasączającej nas każdego dnia strumieniami informacji, które nie układają się w wiedzę, nie układają się w prawdę ani w opowieści sensownie tłumaczące świat. Generowanie kolejnych fal informacji sprzyja dezinformacji rodzącej głębokie spolaryzowanie w wielu krajach. To zaś obok samotności staje się jednym z głównych wyzwań wielu nowoczesnych społeczeństw” – przestrzegł socjolog, mówiąc o zagrożeniach związanych z ChatemGPT.

Chat GPT został opracowany przez amerykańską firmę OpenAI i służy m.in. do tworzenia odpowiedzi na pytania lub polecenia wprowadzane przez jego użytkownika. Potrafi wykonać bardziej złożone zadania, na przykład napisać opowiadanie czy program komputerowy. Wyróżnia się np. tym, że jest w stanie pisać teksty o jakości porównywalnej do treści tworzonych przez utalentowanych ludzi. Wykorzystując techniki głębokiego uczenia się generuje odpowiedzi w czasie rzeczywistym w zależności od przedstawionych mu w pytaniu parametrów.

ChatGPT unieważnia ludzkie kompetencje

„To narzędzie, które niemal całkowicie unieważnia niektóre ludzkie kompetencje. Przez rozwój sztucznej inteligencji zostają również zaburzone sprawdzone i tradycyjne zasady porządkowania rzeczywistości – np. zdjęcie czy film tracą wartość wiarygodnego źródła informacji o czymś, co obiektywnie zaistniało. Być może jesteśmy też o krok od śmierci sztuki” – ocenił prof. Zybertowicz.

Zdaniem eksperta powszechność ChatuGPT może również wpłynąć na osłabienie więzi społecznych, a nawet intymnych kontaktów międzyludzkich. „Poza pewnymi przydatnymi funkcjami, które oczywiście istnieją, jest także zabawką atrakcyjniejszą od kontaktów z rówieśnikami, rodzicami czy ludzką kulturą w ogóle” – powiedział.

REKLAMA

ChatGPT tworzy tylko warstwy rzeczywistości językowej

„ChatGPT nie umie (na razie!) odróżnić prawdy od fałszu, nie ma wyczucia rzeczywistości, tworzy jedynie kolejne warstwy rzeczywistości językowej. Ale za pomocą opowieści kompletnie fikcyjnych także można zarządzać ludzką wyobraźnią, mobilizować lub demobilizować do aktywności. Wygląda na to, że niebawem – o ile już się tak nie stało – systemy sztucznej inteligencji będą w stanie tworzyć opowieści o wiele bardziej kuszące, perswazyjnie efektywniejsze, niż to, co potrafią zaoferować ludzie” – zwrócił uwagę profesor. „Możemy stać się ofiarami albo tych, którzy będą dysponentami systemów sztucznej inteligencji, albo – jeśli się ona zautonomizuje – jej samej. W obu przypadkach oddziaływanie negatywne może być równie silnie” – ostrzegł.

Dalszy ciąg materiału pod wideo

Największe zagrożenie dla ludzkości

„Moim zdaniem nie ma obecnie dla ludzkości większego zagrożenia niż niekontrolowany rozwój sztucznej inteligencji. W odróżnieniu od wcześniej budowanych przez ludzkość technologii, ta ma potencjał kompletnego wymknięcia się spod kontroli” – zaznaczył prof. Zybertowicz. 

Mówiąc o tym, jak należy reagować na możliwie niekontrolowany rozwój technologii, prof. Zybertowicz przypomniał o „podpisanym przez tysiące badaczy apelu o wprowadzenie moratorium, czyli powstrzymanie badań nad sztuczną inteligencją na minimum pół roku, zanim eksperci i politycy zastanowią się, jak dalsze badania można prowadzić w sposób bezpieczny dla ludzkości”.

„W polskich kręgach analitycznych prowadzone są pilne badania. Także w Centrum Badań nad Bezpieczeństwem Akademii Sztuki Wojennej w Warszawie przygotowujemy pogłębiony raport z rekomendacjami dla kierownictwa państwa” – podsumował prof. Zybertowicz. (PAP)

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
AI też musi być odpowiedzialna. Co sztuczna inteligencja ma wspólnego z ESG?

ESG już dawno przestało być hasłem zastrzeżonym dla dużych spółek i działów sustainability. Dr Marcin Huczkowski, partner w kancelarii Fieldfisher Poland, wyjaśnia, dlaczego wdrażając AI nie można pominąć pytań o ślad węglowy, uprzedzenia zakodowane w algorytmach, odpowiedzialność za błędną poradę prawną czy prawa pracowników dotkniętych automatyzacją. I pokazuje, że te tematy mają już bardzo konkretny wymiar prawny.

AI w biznesie – praktyczne zastosowania w księgowości, kadrach i innych działach firmy

Sztuczna inteligencja coraz mocniej wchodzi do firmowej codzienności. Już nie tylko wspiera pisanie tekstów czy analizę danych, ale realnie usprawnia obieg dokumentów i całe procesy biznesowe. Narzędzia takie jak np. AMODIT Copilot, AskAI i AI OCR pomagają automatyzować zadania w finansach, HR, prawie, zakupach i IT, odciążając zespoły i przyspieszając pracę organizacji.

AI wychodzi już z centrów danych. Roboty z neuromorficznymi chipami odbierają bodźce w czasie rzeczywistym jak ludzki mózg i zmysły

Do 2028 r. globalne wydatki na infrastrukturę brzegową mają wzrosnąć z 261 mld do 380 mld dolarów, co jest konsekwencją zwiększającego się zapotrzebowania na inteligentne i energooszczędne rozwiązania do przetwarzania danych. Pomocne w zaspokojeniu tego wyzwania może być neuromorficzne podejście do obliczeń, które zaczyna „wypychać” sztuczną inteligencję poza centra danych, umożliwiając działanie jej mechanizmów bliżej źródeł informacji. Znajduje ono już zastosowanie w robotyce, medycynie, modelowaniu klimatu czy cyberbezpieczeństwie. Jednak, jak wskazują eksperci Vertiv, za rozwojem takich rozwiązań wciąż nie nadąża infrastruktura (zarówno sprzętowa, jak i programowa) potrzebna do ich wdrażania na większą skalę.

AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.

REKLAMA

Rewolucja w prawie AI! Firmy używające AI muszą się dostosować.

Długo oczekiwany projekt przepisów o systemach sztucznej inteligencji trafi wkrótce pod obrady Rady Ministrów. Tak powiedział Infor.pl Sekretarz Stanu w Ministerstwie Cyfryzacji. Nastąpiła zatem długo wyczekiwana zmiana w harmonogramie legislacyjnym i w końcu projekt opuścił Ministerstwo Cyfryzacji.

Test sztucznej inteligencji. Wiadomo, jak wypadły polskie modele AI

W pierwszym „polskim” teście dużych modeli językowych krajowe systemy AI, Bielik i PLLuM wypadły znacznie gorzej od globalnych narzędzi.

Prywatność i wizerunek a AI. Jak chronić dane w czasach nowych technologii?

Rozwój cyfrowy niesie za sobą szereg wyzwań związanych z ochroną naszych danych. Z czym wiąże się nieuprawnione wykorzystanie wizerunku? Jakie praktyczne problemy może stwarzać dla prywatności rozwój sztucznej inteligencji?

Czy zasady zawarte w Konstytucji RP chronią jednostkę przed stosowaniem sztucznej inteligencji?

Wprowadzenie SI do dziedzin życia, ma możliwości poprawy bezpieczeństwa i jakości życia jednostki. Jednak istniejące ryzyko naruszenia prywatności i bezpieczeństwa danych osobowych, zmusza do zapewnienia zgodności z prawem, przejrzystości działania systemów AI oraz ochrony wrażliwych danych, takich jak dane biometryczne.

REKLAMA

Sztuczna inteligencja w pismach procesowych: sąd wydał wyrok

W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.

Bezpłatny webinar: Automatyzacja finansów – AI i boty nie gryzą

Praktyczne scenariusze dla działów księgowych i finansowych. Sztuczna inteligencja i użycie botów symulujących pracę człowieka – to nie żadna futurystyka czy wstęp do masowych zwolnień. Istnieje cała masa powtarzalnych czynności, w których technologia może wyręczyć Waszych pracowników.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA