REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Trzeba zająć się moralną i etyczną stroną sztucznej inteligencji

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
Rozwój sztucznej inteligencji znacząco przyspiesza
Shutterstock

REKLAMA

REKLAMA

Sztuczna inteligencja. Według 46 proc. dyrektorów i menedżerów pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania z tą technologią, a blisko co piąta przeszła już do etapu pilotażu lub wdrożenia – wynika z majowego badania firmy doradczej Gartner. 

Eksperci zauważają, że choć o sztucznej inteligencji mówi się na razie głównie w kontekście biznesowym i rozrywkowym, to w debacie coraz częściej pojawia się też wątek etyki i społecznej odpowiedzialności AI, która może się przyczynić do rozwiązania globalnych problemów. – Musimy się zastanowić, co możemy zrobić, żeby AI była odpowiedzialna, etyczna i brała pod uwagę dobro całej ludzkości, a nie tylko właścicieli – mówi Edi Pyrek, współzałożyciel Global Artificial Intelligence Association.

REKLAMA

ChatGPT - rewolucja technologiczna

REKLAMA

ChatGPT – generatywna sztuczna inteligencja opracowana przez laboratorium badawcze OpenAI i wypuszczona na rynek w listopadzie ub.r. – jest nazywana kamieniem milowym w rozwoju tej technologii. Od kilku miesięcy cieszy się też rekordową popularnością. Według analityków UBS w zaledwie dwa miesiące przekroczyła symboliczny próg 100 mln użytkowników miesięcznie, co czyni ją najszybciej rosnącą aplikacją w historii. W połowie marca tego roku pojawił się też znacznie ulepszony następca – ChatGPT4, którego większość dotychczasowych użytkowników zgodnie nazywa rewolucją na miarę wynalezienia internetu czy maszyny parowej.

To, co wydarzyło się od momentu wejścia na rynek ChatGPT4, to jest już kompletna rewolucja w myśleniu o sztucznej inteligencji – mówi agencji Newseria Biznes Edi Pyrek, współzałożyciel Global Artificial Intelligence Association oraz iMIND Institute. – Wreszcie zaczęliśmy szerzej rozmawiać o tym, że sztuczna inteligencja to nie jest telefon, czatbot czy samochód, który będzie poruszał się obok nas. To jest coś o wiele większego, o czym powinniśmy zacząć inaczej myśleć.

REKLAMA

Wokół narzędzia stworzonego przez OpenAI błyskawicznie wyrósł już cały nowy rynek usług cyfrowych. ChatGPT – ale też m.in. Dall-E czy Midjourney – są powszechnie wykorzystywane w ramach tzw. sztucznej twórczości (ang. artificial creativity), a tysiące podmiotów zaczęło oferować oparte na nich nowe usługi i aplikacje.

– Nie wiem, czy większość z nas zdaje sobie z tego sprawę, ale w momencie kiedy na rynku pojawił się ChatGPT4, historia człowieka na Ziemi zaczęła się w pewien sposób zmieniać. Stanęliśmy w momencie, kiedy singularity, osobowość technologiczna – czyli moment, kiedy sztuczna inteligencja będzie właściwie rządziła naszym życiem – jest już tuż za rogiem. To nie jest coś, co wydarzy się za kilkadziesiąt lat. Dlatego powinniśmy się zastanowić, czy ta sztuczna inteligencja może być odpowiedzialna społecznie. Stworzyliśmy sytuację, w której to ogon kieruje psem, mamy narzędzie, które zaczyna nami sterować. Musimy się zastanowić, co możemy zrobić, żeby ono było etyczne, odpowiedzialne i brało pod uwagę dobro całej ludzkości – mówi ekspert.

Dalszy ciąg materiału pod wideo

W majowym badaniu firmy doradczej Gartner blisko połowa (46 proc.) menedżerów wskazała też, że pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania z tą technologią, a 19 proc. przeszło już do etapu pilotażu lub wdrożenia. Lawinowo rosnąca liczba zastosowań tej technologii powoduje, że debatę dotyczącą jej rozwoju zdominowały do tej pory głównie aspekty biznesowe i rozrywkowe. Jednak coraz częściej mówi się też o koncepcji AI for social impact, czyli etyce, społecznej odpowiedzialności i wykorzystaniu sztucznej inteligencji do rozwiązywania palących globalnych wyzwań.

Czy możemy zaufać sztucznej inteligencji?

– Do tej pory w zasadzie jedynym, ale bardzo istotnym przejawem tego, że przynajmniej część naukowców, badaczy, polityków, biznesmenów i technologów zajmowała się bardziej ludzkimi cechami AI, był projekt stworzony dla Unii Europejskiej, czyli Trustworthy AI. Zgodnie z tym konceptem powinniśmy stworzyć taką sztuczną inteligencję, której będziemy mogli zaufać, z założeniem, że ona będzie podtrzymywała takie cechy jak godność ludzka – mówi współzałożyciel fundacji GAIA.

Jak wskazuje, problemem wciąż pozostaje zdefiniowanie tych „ludzkich” cech, które powinna wykazywać AI, żeby działać etycznie i na rzecz ogólnie pojętego dobra publicznego.

– Kiedy ze współzałożycielami fundacji myśleliśmy o etyce sztucznej inteligencji, natknęliśmy się na problem, bo zdaliśmy sobie sprawę, że nie ma czegoś takiego jak jedna etyka dla wszystkich. Inna etyka jest muzułmańska, inna jest buddyjska, inna jest żydowska, inna jest w Polsce, inna w Ameryce, a jeszcze inna gdzieś w Rosji czy Chinach. Ona jest osadzona w kontekście religijnym i kulturowym. Dlatego też pierwsza rzecz, jaka w tej chwili przychodzi do głowy, jeśli chodzi o „proludzkie” cechy AI, to compassion, czyli współodczuwanie. To jest cecha wspólna dla wszystkich kultur i religii – mówi Edi Pyrek. – Jestem głęboko przekonany, że stoimy właśnie w momencie, kiedy na świecie pojawia się nowy gatunek, czyli androidy obdarzone sztuczną inteligencją. Jeżeli chcemy żyć z nimi obok, to musimy nauczyć tę sztuczną inteligencję współodczuwania, rozumienia naszych bolączek i potrzeb, żeby one były w odpowiedni sposób zabezpieczone.

Jak nauczyć sztuczną inteligencję empatii

Przyczynienie się do stworzenia tzw. compassion AI, czyli współodczuwającej sztucznej inteligencji, jest właśnie celem konkursu „Join the Rebels! Impact the Future”, zainicjowanego przez GAIA i Dictador – pierwszą na świecie i jedyną jak dotąd markę, której prezesem jest algorytm AI. 

– Cały koncept tego zadania, które stawiamy w naszym konkursie, opiera się na stworzeniu platformy, która będzie pozwalała nie tylko uczyć sztuczną inteligencję, ale także uczyć się od sztucznej inteligencji. Chcemy, żeby sztuczna inteligencja nauczyła ludzi tego, czego sami siebie nie potrafiliśmy nauczyć, czyli współodczuwania – mówi pomysłodawca konkursu. – Ten konkurs jest skierowany do naukowców, start-upów, przedsiębiorców i osób indywidualnych chcących razem z nami stworzyć compassion AI, która w sposób psychologicznie bezpieczny będzie potrafiła nauczyć ludzi zachowań moralnych, etycznych, myślenia propublicznego, nauczyć ludzi empatii i współczucia.

Pula nagród wynosi 200 tys. euro, a organizatorzy na zgłoszenia będą czekać do 31 lipca br. Ogłoszenie wyników nastąpi na początku października. O założeniach globalnego konkursu Edi Pyrek opowiadał podczas jednego z ostatnich wydarzeń Thursday Gathering. To cotygodniowe spotkania społeczności innowatorów, które stanowią okazję do networkingu, wymiany doświadczeń i wiedzy na temat najciekawszych trendów gospodarczych, technologicznych i społecznych. Organizatorem jest Fundacja Venture Café Warsaw i jej partnerzy.

Więcej ważnych informacji znajdziesz na stronie głównej Inforu

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: Newseria.pl

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Czy AI osłabia nasz mózg? Wielomiesięczne użytkowanie ChatuGPT może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć

Jak AI wpływa na nasz mózg? Wielomiesięczne użytkowanie ChatuGPT może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć – ostrzegają autorzy niewielkiego badania, którego wyniki (na razie bez recenzji) opublikowano w serwisie ArXiv.

BBC ostrzega: Google zabije internet. Kto zapłaci twórcom treści, dziennikarzom, skoro roboty nie klikają w reklamy?

Internet powstał z myślą o ludziach, ale jego przyszłość może należeć do maszyn. W nowym paradygmacie to nie my przeglądamy sieć – to sztuczna inteligencja przegląda ją za nas. Taki scenariusz przedstawia dziennikarz BBC Thomas Germain. Czy to koniec swobodnego eksplorowania sieci i początek epoki zunifikowanych informacji, w której algorytm decyduje, co powinniśmy wiedzieć, a co lepiej pominąć?

Sztuczna inteligencja zabierze 14% miejsc pracy. Jak wdrożyć AI w firmie i dlaczego nie można z tym zwlekać?

Automatyzacja i sztuczna inteligencja nie są już przyszłością – stały się teraźniejszością. Firmy stoją przed trudnym wyborem: albo zaczną zmiany już teraz, albo zderzą się z brutalną rzeczywistością, a na adaptację do niej nie będzie czasu. Jak odpowiedzialnie i skutecznie przygotować organizację oraz ludzi do nieuniknionych przemian?

To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie

Jeden z modeli AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

REKLAMA

Dlaczego AI i tworzenie oprogramowania przypominają forex? Technologia w służbie celu – nigdy odwrotnie

Technologia i tworzenie oprogramowania przypominają rynek forex. Są tacy, którzy dużo zyskują – i dzięki technologii wyprzedzają konkurencję o pięć kroków naraz. Ale większość niestety przegrywa.

Dezinformacja bronią XXI wieku. 6 wskazówek jak się przed nią chronić i nie rozpowszechniać „fake newsów”

Manipulowanie informacjami i ingerencja zagraniczna są poważnym zagrożeniem dla społeczeństwa. Fake newsy mogą podważać wiarygodność instytucji i procesów demokratycznych, uniemożliwiając ludziom podejmowanie świadomych decyzji lub zniechęcając ich do głosowania. Komisja Europejska w swoim wzmocnionym komunikacie przedstawia sześć wskazówek, jak wykryć i przeciwdziałać manipulacji informacjami.

12 topowych narzędzi do generowania obrazów AI – przegląd

Sztuczna inteligencja rewolucjonizuje tworzenie grafik, umożliwiając szybkie generowanie realistycznych obrazów, koncepcyjnych ilustracji i wizualizacji produktów – bez potrzeby angażowania grafików czy długiego procesu projektowego. Wszystko zależy od tego, czego potrzebujesz: fotorealizmu, stylizowanych grafik koncepcyjnych, a może prostych ilustracji do mediów społecznościowych? Sprawdź 12 najlepszych generatorów obrazów AI, które pomogą Ci wybrać idealne narzędzie do Twoich kreatywnych projektów.

Legislacja a technologia. Regulowanie odpowiedzialności za sztuczną inteligencję

Pamiętacie "A.I. Sztuczna Inteligencja"? Film Spielberga, w którym robot marzy o byciu chłopcem? Ta wizja przyszłości staje się coraz mniej odległa. Choć maszyny jeszcze nie płaczą, już teraz wkraczają w nasze życie, podejmując decyzje w biznesie i przemyśle. To rewolucja, ale z jednym "ale": kto odpowiada za błędy tych cyfrowych mózgów?

REKLAMA

Prawo sztucznej inteligencji: co pominięto w AI Act i projekcie polskiej ustawy. Gdzie szukać przepisów o AI jeżeli nie ma ich w AI Act ani w polskiej implementacji?

Sam AI Act jako mimo że jest rozporządzeniem unijnym i nie wymaga implementacji do przepisów prawa danego państwa członkowskiego, tak jak Dyrektywy unijne, to jednak wymaga uzupełnienia w prawie krajowym – co polski ustawodawca już zauważył. Obecnie prace nad taką ustawą (Projekt ustawy o systemach sztucznej inteligencji) są prowadzone, a wynik prac legislacyjnych możemy znaleźć tu: https://legislacja.rcl.gov.pl/projekt/12390551 . Dodatkowo wcześniej opracowano również projekt ustawy o związkach zawodowych mający na celu zapewnienie właściwego informowania pracowników o wykorzystywaniu AI. Te akty prawne w mojej ocenie regulują głównie działania developerów AI oraz relacje między nimi a organami państwowymi i użytkownikami. TO czego ewidentnie brakuje, to regulacji sytuacji prawnej użytkowników i ich relacji z pozostałymi osobami. Czy to oznacza, że nie jest ona uregulowana w prawie?

Sztuczna inteligencja (AI) - pierwsze europejskie regulacje prawne

W obecnych czasach jesteśmy świadkami kolejnego przełomowego wydarzenia na miarę rewolucji przemysłowej z XVIII wieku oraz nie tak odległej rewolucji cyfrowej. Mowa o sztucznej inteligencji AI (ang. artificial intelligence).

REKLAMA