REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Sztuczna inteligencja: Obawy trzeba nazwać i opisać konkretnie

Grupa przedsiębiorców i badaczy zażądała sześciomiesięcznej przerwy we wdrażaniu sztucznej inteligencji
Grupa przedsiębiorców i badaczy zażądała sześciomiesięcznej przerwy we wdrażaniu sztucznej inteligencji
shutterstock

REKLAMA

REKLAMA

Nie straszmy sztuczną inteligencją, tylko nazywajmy obawy bardziej konkretnie – nawołuje prof. Nello Cristianini z University of Bath, który sam jest ekspertem w tej dziedzinie.

REKLAMA

Na łamach portalu „The Conversation” prof. Nello Cristianini z University of Bath próbuje chłodzić emocje wokół oświadczenia „Statement on AI risk”, w którym eksperci od sztucznej inteligencji i inne osoby wyrażają zaniepokojenie ryzykiem związanym z SI. Oświadczenie ekspertów opublikowała pod koniec maja br. organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa SI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem SI.

REKLAMA

Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany „ojcem chrzestnym sztucznej inteligencji”, który odszedł z Google’a, by swobodnie ostrzegać przed zagrożeniami związanymi z SI oraz Sam Altman – dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w SI, jak Google, DeepMind, Microsoft czy Anthropic.

Czy sztuczna inteligencja doprowadzi do wyginięcia ludzi

Jej kluczowe zdanie brzmi: „Zmniejszenie ryzyka wyginięcia – wywołanego przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną – takich jak pandemie i wojna nuklearna”.

REKLAMA

Dla prof. Cristianiniego są to bardzo mocne słowa, ale jednak mało konkretne. „Jako profesor sztucznej inteligencji jestem również zwolennikiem ograniczania wszelkiego ryzyka i jestem gotów osobiście nad tym pracować. Ale każde stwierdzenie sformułowane w taki sposób musi wywołać alarm, więc jego autorzy powinni być bardziej konkretni i wyjaśnić swoje obawy” – stwierdza prof. Cristianini. Odnosi się do słów „wyginięcie/wymieranie” i mówi wprost, że nikt nie przedstawił do tej pory scenariusza, w jaki sposób mogłoby się to stać.

„Spotkałem wielu sygnatariuszy oświadczenia, którzy należą do najbardziej cenionych naukowców w tej dziedzinie – i z pewnością chcą dobrze. Nie dali nam jednak żadnego namacalnego scenariusza, w jaki sposób mogłoby dojść do takiego ekstremalnego zdarzenia” – zauważa ekspert. 

Czy potrzebna jest przerwa we wdrażaniu sztucznej inteligencji

Dodaje też, że petycja nie jest pierwszą, która przyczynia się do rozpowszechnienia wyobrażeń o SI jako sprawcy największego zła. 22 marca tego roku inna grupa przedsiębiorców i badaczy zażądała sześciomiesięcznej przerwy we wdrażaniu sztucznej inteligencji. W petycji na stronie internetowej „Future of Life Institute” napisano, że SI to „ogromne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania i potwierdzone przez najlepsze laboratoria sztucznej inteligencji”.

Do wniosku dołączono też listę pytań: „Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?” 

Prof. Cristianini podkreśla, że takie przedstawienie tematu niczego nie wyjaśnia, a jedynie wpędza odbiorców w głęboki niepokój. „Z pewnością prawdą jest, że oprócz wielu korzyści technologia ta wiąże się z ryzykiem, które musimy traktować poważnie. Ale żaden z wyżej wymienionych scenariuszy nie wydaje się nakreślać konkretnej ścieżki do wyginięcia. Oznacza to, że zostajemy z ogólnym poczuciem niepokoju, bez żadnych możliwych działań, które moglibyśmy podjąć” – zauważa ekspert.

Centrum na Rzecz Bezpieczeństwa SI na swojej stronie internetowej wskazuje, że głównym zmartwieniem wydaje się być wykorzystanie systemów sztucznej inteligencji do projektowania broni chemicznej. „Należy temu zapobiec za wszelką cenę, ale broń chemiczna jest już zakazana” – podkreśla Cristianini.

Czy sztuczna inteligencja wyrządzi światu szkody

Sam Altman, dyrektor generalny OpenAI – firmy, która opracowała chatbota ChatGPT4 – podczas przesłuchania w Senacie USA 16 maja został dwukrotnie poproszony o przedstawienie swojego najgorszego scenariusza dotyczącego rozwoju SI. W końcu odpowiedział: „Najbardziej obawiam się, że my – reprezentanci tej dziedziny, technologia, przemysł – wyrządzimy światu znaczne szkody. Myślę, że jeśli ta technologia pójdzie źle, może pójść całkiem źle. Właśnie dlatego założyliśmy firmę, aby zapobiec takiej przyszłości”.

Prof. Cristianini, uważa że pierwszym krokiem ku lepszej przyszłości, jest konkretne nazwanie i opisanie problemu. „Chociaż zdecydowanie opowiadam się za zachowaniem możliwie jak największej ostrożności i powtarzam to publicznie od dziesięciu lat, ważne jest zachowanie poczucia proporcji. Sztuczna inteligencja może stwarzać problemy społeczne, którym naprawdę trzeba zapobiegać. Jako naukowcy mamy obowiązek je zrozumieć, a następnie zrobić wszystko, co w naszej mocy, aby je rozwiązać. Ale pierwszym krokiem jest ich nazwanie i opisanie – i bycie konkretnym” – napisał Cristianini.(PAP)

Autorka: Urszula Kaczorowska

Autopromocja
Oprac. Piotr T. Szymański

REKLAMA

Źródło: PAP
Czy ten artykuł był przydatny?
tak
nie
Dziękujemy za powiadomienie - zapraszamy do subskrybcji naszego newslettera
Jeśli nie znalazłeś odpowiedzi na swoje pytania w tym artykule, powiedz jak możemy to poprawić.
UWAGA: Ten formularz nie służy wysyłaniu zgłoszeń . Wykorzystamy go aby poprawić artykuł.
Jeśli masz dodatkowe pytania prosimy o kontakt

REKLAMA

Komentarze(0)

Pokaż:

Uwaga, Twój komentarz może pojawić się z opóźnieniem do 10 minut. Zanim dodasz komentarz -zapoznaj się z zasadami komentowania artykułów.
    QR Code
    Sztuczna inteligencja (AI)
    Zapisz się na newsletter
    Zobacz przykładowy newsletter
    Zapisz się
    Wpisz poprawny e-mail
    77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?

    Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

    Czy sztuczna inteligencja jest szkodliwa dla środowiska?

    Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

    Czy sztuczna inteligencja namiesza w tegorocznych wyborach?

    Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

    Pracownicy nie wiedzą, czy w ich firmach korzysta się ze sztucznej inteligencji

    Sztuczna inteligencja jednocześnie fascynuje i budzi obawy. Na rynku pracy są one związane z możliwą utratą miejsca pracy czy zmianami w strukturze zatrudnienia. Tym bardziej, że pracownicy często nie wiedzą, czy w ich firmach wykorzystuje się AI. 

    REKLAMA

    Jak wykorzystać Gen. AI w biznesie? [10 zasadniczych kroków] Czy umiejętność korzystania ze sztucznej inteligencji daje przewagę konkurencyjną już teraz?

    W dynamicznym świecie biznesu innowacje odgrywają kluczową rolę. Sztuczna inteligencja (AI) staje się rewolucyjnym narzędziem, zmieniającym sposób, w jaki firmy funkcjonują i konkurują na rynku. Rozwój generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, stał się punktem zwrotnym dla liderów biznesu, wyznaczając nowe standardy w dziedzinie technologii. W odpowiedzi na ten trend Lazarski University of Technology wprowadza innowacyjny program "Gen AI dla Biznesu", który nie tylko dostarcza teoretycznej wiedzy o sztucznej inteligencji, ale skupia się też na jej praktycznym wykorzystaniu w biznesie. Uczestnicy zdobędą nie tylko wiedzę, ale i niezbędne narzędzia do efektywnego wykorzystania AI w celu rozwijania innowacji i wzmacniania przewagi konkurencyjnej swoich firm.

    Handlowcy polubili sztuczną inteligencję. Ponad 60 proc. firm planuje w nią zainwestować

    Sztuczna inteligencja przekonuje do siebie handlowców? Wygląda na to, że tak. Nawet ponad 60 proc. firm z branży handlowej planuje zwiększyć inwestycje w sztuczną inteligencję (AI) w najbliższych 18 miesiącach. Skąd takie zainteresowanie?

    Czy pracownicy sektora finansowego powinni obawiać się sztucznej inteligencji?

    Sektor finansowy korzysta ze sztucznej inteligencji nie od dziś. W bankach możliwości na wykorzystanie nowych technologii jest dużo. Czy dalszy rozwój AI wiąże się z ryzykiem ograniczenia zatrudnienia w sektorze bankowym? 

    AI: Innowacja czy niepokój? Nowe badanie EY odsłania wpływ sztucznej inteligencji na rynek pracy

    W dobie dynamicznie rozwijającej się technologii, sztuczna inteligencja (AI) staje się coraz bardziej powszechna w środowisku pracy, ale czy jej rosnąca obecność jest źródłem postępu, czy raczej powodem do niepokoju? Najnowsze badanie przeprowadzone przez EY, jedną z wiodących firm doradczych, rzuca światło na obawy pracowników związane z rosnącym wykorzystaniem AI w miejscu pracy. Wyniki badania ujawniają, że 71% pracowników odczuwa niepokój związany z wdrażaniem nowych, innowacyjnych rozwiązań, podkreślając obawy etyczne, prawne oraz ryzyko utraty pracy lub możliwości awansu.

    REKLAMA

    Rewolucja w przemyśle: Wizja autonomicznych fabryk wspieranych sztuczną inteligencją

    W dzisiejszym świecie, gdzie kolejne innowacje technologiczne zmieniają oblicze rzeczywistości, przemysł również stoi u progu rewolucji, której głównym motorem będzie, a w wielu przypadkach już jest, sztuczna inteligencja (AI). To wizja nieodległej przyszłości, w której fabryki operują całkowicie autonomicznie, a sztuczna inteligencja sprawuje kontrolę nad wszystkimi aspektami łańcucha wartości, obejmując zaopatrzenie, produkcję, utrzymanie maszyn i ich modernizację – minimalizując jednocześnie ludzką ingerencję. 

    Sztuczna inteligencja w nauce. Uniwersytet Warszawski przyjął wytyczne

    Sztuczna inteligencja w nauce. Uchwałę w sprawie korzystania z narzędzi sztucznej inteligencji w procesie kształcenia podjęła Uniwersytecka Rada ds. Kształcenia Uniwersytetu Warszawskiego. Regulacje dotyczą m.in. używania SI przy przygotowywaniu prac dyplomowych i zaliczeniowych.

    REKLAMA