REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Sztuczna inteligencja: Obawy trzeba nazwać i opisać konkretnie

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
Grupa przedsiębiorców i badaczy zażądała sześciomiesięcznej przerwy we wdrażaniu sztucznej inteligencji
shutterstock

REKLAMA

REKLAMA

Nie straszmy sztuczną inteligencją, tylko nazywajmy obawy bardziej konkretnie – nawołuje prof. Nello Cristianini z University of Bath, który sam jest ekspertem w tej dziedzinie.

REKLAMA

Na łamach portalu „The Conversation” prof. Nello Cristianini z University of Bath próbuje chłodzić emocje wokół oświadczenia „Statement on AI risk”, w którym eksperci od sztucznej inteligencji i inne osoby wyrażają zaniepokojenie ryzykiem związanym z SI. Oświadczenie ekspertów opublikowała pod koniec maja br. organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa SI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem SI.

REKLAMA

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany „ojcem chrzestnym sztucznej inteligencji”, który odszedł z Google’a, by swobodnie ostrzegać przed zagrożeniami związanymi z SI oraz Sam Altman – dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w SI, jak Google, DeepMind, Microsoft czy Anthropic.

Czy sztuczna inteligencja doprowadzi do wyginięcia ludzi

Jej kluczowe zdanie brzmi: „Zmniejszenie ryzyka wyginięcia – wywołanego przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną – takich jak pandemie i wojna nuklearna”.

REKLAMA

Dla prof. Cristianiniego są to bardzo mocne słowa, ale jednak mało konkretne. „Jako profesor sztucznej inteligencji jestem również zwolennikiem ograniczania wszelkiego ryzyka i jestem gotów osobiście nad tym pracować. Ale każde stwierdzenie sformułowane w taki sposób musi wywołać alarm, więc jego autorzy powinni być bardziej konkretni i wyjaśnić swoje obawy” – stwierdza prof. Cristianini. Odnosi się do słów „wyginięcie/wymieranie” i mówi wprost, że nikt nie przedstawił do tej pory scenariusza, w jaki sposób mogłoby się to stać.

„Spotkałem wielu sygnatariuszy oświadczenia, którzy należą do najbardziej cenionych naukowców w tej dziedzinie – i z pewnością chcą dobrze. Nie dali nam jednak żadnego namacalnego scenariusza, w jaki sposób mogłoby dojść do takiego ekstremalnego zdarzenia” – zauważa ekspert. 

Dalszy ciąg materiału pod wideo

Czy potrzebna jest przerwa we wdrażaniu sztucznej inteligencji

Dodaje też, że petycja nie jest pierwszą, która przyczynia się do rozpowszechnienia wyobrażeń o SI jako sprawcy największego zła. 22 marca tego roku inna grupa przedsiębiorców i badaczy zażądała sześciomiesięcznej przerwy we wdrażaniu sztucznej inteligencji. W petycji na stronie internetowej „Future of Life Institute” napisano, że SI to „ogromne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania i potwierdzone przez najlepsze laboratoria sztucznej inteligencji”.

Do wniosku dołączono też listę pytań: „Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?” 

Prof. Cristianini podkreśla, że takie przedstawienie tematu niczego nie wyjaśnia, a jedynie wpędza odbiorców w głęboki niepokój. „Z pewnością prawdą jest, że oprócz wielu korzyści technologia ta wiąże się z ryzykiem, które musimy traktować poważnie. Ale żaden z wyżej wymienionych scenariuszy nie wydaje się nakreślać konkretnej ścieżki do wyginięcia. Oznacza to, że zostajemy z ogólnym poczuciem niepokoju, bez żadnych możliwych działań, które moglibyśmy podjąć” – zauważa ekspert.

Centrum na Rzecz Bezpieczeństwa SI na swojej stronie internetowej wskazuje, że głównym zmartwieniem wydaje się być wykorzystanie systemów sztucznej inteligencji do projektowania broni chemicznej. „Należy temu zapobiec za wszelką cenę, ale broń chemiczna jest już zakazana” – podkreśla Cristianini.

Czy sztuczna inteligencja wyrządzi światu szkody

Sam Altman, dyrektor generalny OpenAI – firmy, która opracowała chatbota ChatGPT4 – podczas przesłuchania w Senacie USA 16 maja został dwukrotnie poproszony o przedstawienie swojego najgorszego scenariusza dotyczącego rozwoju SI. W końcu odpowiedział: „Najbardziej obawiam się, że my – reprezentanci tej dziedziny, technologia, przemysł – wyrządzimy światu znaczne szkody. Myślę, że jeśli ta technologia pójdzie źle, może pójść całkiem źle. Właśnie dlatego założyliśmy firmę, aby zapobiec takiej przyszłości”.

Prof. Cristianini, uważa że pierwszym krokiem ku lepszej przyszłości, jest konkretne nazwanie i opisanie problemu. „Chociaż zdecydowanie opowiadam się za zachowaniem możliwie jak największej ostrożności i powtarzam to publicznie od dziesięciu lat, ważne jest zachowanie poczucia proporcji. Sztuczna inteligencja może stwarzać problemy społeczne, którym naprawdę trzeba zapobiegać. Jako naukowcy mamy obowiązek je zrozumieć, a następnie zrobić wszystko, co w naszej mocy, aby je rozwiązać. Ale pierwszym krokiem jest ich nazwanie i opisanie – i bycie konkretnym” – napisał Cristianini.(PAP)

Autorka: Urszula Kaczorowska

Oprac. Piotr T. Szymański
Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Czy AI osłabia nasz mózg? Wielomiesięczne użytkowanie ChatuGPT może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć

Jak AI wpływa na nasz mózg? Wielomiesięczne użytkowanie ChatuGPT może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć – ostrzegają autorzy niewielkiego badania, którego wyniki (na razie bez recenzji) opublikowano w serwisie ArXiv.

BBC ostrzega: Google zabije internet. Kto zapłaci twórcom treści, dziennikarzom, skoro roboty nie klikają w reklamy?

Internet powstał z myślą o ludziach, ale jego przyszłość może należeć do maszyn. W nowym paradygmacie to nie my przeglądamy sieć – to sztuczna inteligencja przegląda ją za nas. Taki scenariusz przedstawia dziennikarz BBC Thomas Germain. Czy to koniec swobodnego eksplorowania sieci i początek epoki zunifikowanych informacji, w której algorytm decyduje, co powinniśmy wiedzieć, a co lepiej pominąć?

Sztuczna inteligencja zabierze 14% miejsc pracy. Jak wdrożyć AI w firmie i dlaczego nie można z tym zwlekać?

Automatyzacja i sztuczna inteligencja nie są już przyszłością – stały się teraźniejszością. Firmy stoją przed trudnym wyborem: albo zaczną zmiany już teraz, albo zderzą się z brutalną rzeczywistością, a na adaptację do niej nie będzie czasu. Jak odpowiedzialnie i skutecznie przygotować organizację oraz ludzi do nieuniknionych przemian?

To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie

Jeden z modeli AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

REKLAMA

Dlaczego AI i tworzenie oprogramowania przypominają forex? Technologia w służbie celu – nigdy odwrotnie

Technologia i tworzenie oprogramowania przypominają rynek forex. Są tacy, którzy dużo zyskują – i dzięki technologii wyprzedzają konkurencję o pięć kroków naraz. Ale większość niestety przegrywa.

Dezinformacja bronią XXI wieku. 6 wskazówek jak się przed nią chronić i nie rozpowszechniać „fake newsów”

Manipulowanie informacjami i ingerencja zagraniczna są poważnym zagrożeniem dla społeczeństwa. Fake newsy mogą podważać wiarygodność instytucji i procesów demokratycznych, uniemożliwiając ludziom podejmowanie świadomych decyzji lub zniechęcając ich do głosowania. Komisja Europejska w swoim wzmocnionym komunikacie przedstawia sześć wskazówek, jak wykryć i przeciwdziałać manipulacji informacjami.

12 topowych narzędzi do generowania obrazów AI – przegląd

Sztuczna inteligencja rewolucjonizuje tworzenie grafik, umożliwiając szybkie generowanie realistycznych obrazów, koncepcyjnych ilustracji i wizualizacji produktów – bez potrzeby angażowania grafików czy długiego procesu projektowego. Wszystko zależy od tego, czego potrzebujesz: fotorealizmu, stylizowanych grafik koncepcyjnych, a może prostych ilustracji do mediów społecznościowych? Sprawdź 12 najlepszych generatorów obrazów AI, które pomogą Ci wybrać idealne narzędzie do Twoich kreatywnych projektów.

Legislacja a technologia. Regulowanie odpowiedzialności za sztuczną inteligencję

Pamiętacie "A.I. Sztuczna Inteligencja"? Film Spielberga, w którym robot marzy o byciu chłopcem? Ta wizja przyszłości staje się coraz mniej odległa. Choć maszyny jeszcze nie płaczą, już teraz wkraczają w nasze życie, podejmując decyzje w biznesie i przemyśle. To rewolucja, ale z jednym "ale": kto odpowiada za błędy tych cyfrowych mózgów?

REKLAMA

Prawo sztucznej inteligencji: co pominięto w AI Act i projekcie polskiej ustawy. Gdzie szukać przepisów o AI jeżeli nie ma ich w AI Act ani w polskiej implementacji?

Sam AI Act jako mimo że jest rozporządzeniem unijnym i nie wymaga implementacji do przepisów prawa danego państwa członkowskiego, tak jak Dyrektywy unijne, to jednak wymaga uzupełnienia w prawie krajowym – co polski ustawodawca już zauważył. Obecnie prace nad taką ustawą (Projekt ustawy o systemach sztucznej inteligencji) są prowadzone, a wynik prac legislacyjnych możemy znaleźć tu: https://legislacja.rcl.gov.pl/projekt/12390551 . Dodatkowo wcześniej opracowano również projekt ustawy o związkach zawodowych mający na celu zapewnienie właściwego informowania pracowników o wykorzystywaniu AI. Te akty prawne w mojej ocenie regulują głównie działania developerów AI oraz relacje między nimi a organami państwowymi i użytkownikami. TO czego ewidentnie brakuje, to regulacji sytuacji prawnej użytkowników i ich relacji z pozostałymi osobami. Czy to oznacza, że nie jest ona uregulowana w prawie?

Sztuczna inteligencja (AI) - pierwsze europejskie regulacje prawne

W obecnych czasach jesteśmy świadkami kolejnego przełomowego wydarzenia na miarę rewolucji przemysłowej z XVIII wieku oraz nie tak odległej rewolucji cyfrowej. Mowa o sztucznej inteligencji AI (ang. artificial intelligence).

REKLAMA