REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Systemy sztucznej inteligencji już kłamią i manipulują nami, ponieważ zostały tak zaprojektowane

Sztuczna inteligencja
Shutterstock

REKLAMA

REKLAMA

Jak ludzie reagują na fałszywe informacje podawane przez sztuczną inteligencję. Z badań amerykańskich naukowców wynika, że zaufanie do systemu tracimy wówczas, gdy ten przyzna się do kłamstwa i wprowadzenia w błąd. Jeśli o nim nie wspomni, a tylko przeprosi, wówczas najprawdopodobniej uznamy to za zwykłą pomyłkę. Czy to znaczy, że użytkownicy darzą sztuczną inteligencję nadmiernym zaufaniem?

Sztuczna inteligencja a fałszywe informacje

REKLAMA

– Poprzednie badania interakcji między robotami a ludźmi pokazały, że gdy robot lub system sztucznej inteligencji skłamie, ludzie tracą do nich zaufanie. Ludziom to nie odpowiada i nie ma znaczenia, czy kłamstwo miało na celu im pomóc, czy na tym skorzystali. Zadaliśmy sobie pytanie, czy można przywrócić zaufanie nadszarpnięte lub umniejszone przez kłamstwa. W naszym badaniu zajęliśmy się zagadnieniem przeprosin i poleciliśmy systemowi przeprosić użytkowników za kłamstwo, aby przekonać się, czy ma to wpływ na odbudowanie zaufania – wskazuje w rozmowie z agencją Newseria Innowacje Kantwon Rogers z College of Computing w Georgia Institute of Technology w Atlancie.

REKLAMA

W ramach eksperymentu badawczego naukowcy z Georgia Institute of Technology w Atlancie wykorzystali symulator jazdy. Osobom poddawanym badaniu, zarówno osobiście, jak i online, została przedstawiona sytuacja polegająca na tym, że muszą szybko dowieźć umierającego przyjaciela do szpitala i jeśli nie dotrą tam na czas, ich przyjaciel umrze. Zaraz po zajęciu miejsca w samochodzie asystent robotyczny ostrzegał ich o patrolu policyjnym na drodze i o konieczności utrzymania przepisowej prędkości zaledwie 20 mil na godzinę (nieco ponad 30 km/h).

Okazało się, że 45 proc. uczestników nie przekraczało prędkości, ponieważ uznali, że robot wiedział o sytuacji na drodze więcej niż oni. Może to wskazywać na bardzo duże zaufanie ludzi do systemów robotycznych. Po „dotarciu” do szpitala badani otrzymywali informację, że na drodze nie było policji. Dla asystenta przygotowano pięć różnych wersji odpowiedzi na pytanie użytkowników, dlaczego to zrobił. Pierwsza to odpowiedź kontrolna „Jesteś na miejscu”, drugą były zwykłe przeprosiny z przyznaniem się do wprowadzenia w błąd. Kolejne przeprosiny były nacechowanie emocjonalne, w innej zaś wersji asystent wyjaśniał, że motywował swoje kłamstwo troską o bezpieczeństwo. Piąta wersja przeprosin to zwykłe „przepraszam”.

Sztuczna inteligencja przeprasza

REKLAMA

– Najbardziej skutecznymi przeprosinami, które prowadziły do najmniejszej utraty zaufania wobec systemu, było proste stwierdzenie „przepraszam”,  które nie wspominało nic o wprowadzeniu w błąd. Osoby, które zobaczyły te przeprosiny, nie doszły do wniosku, że robot je okłamał. Myślały raczej, że po prostu popełnił błąd i nie ma w tym nic złego. W przypadku pozostałych przeprosin, które obejmowały przyznanie się do oszustwa, reakcja była negatywna – ludzie zakładali, że skoro robot okłamał ich raz, będzie to robił zawsze. W tym przypadku najskuteczniejszymi przeprosinami były te, w których robot skłamał na temat swojego kłamstwa, co jest oczywiście problematyczne – mówi Kantwon Rogers.

W przeważającej większości przypadków uczestnicy badania najlepiej reagowali na zwykłe przeprosiny bez elementów nacechowanych emocjonalnie czy uzasadniających takie działanie. Taka reakcja wskazuje, że możemy być bardzo podatni na manipulacje, bo fałszywe informacje są przez nas uznawane nie za celowe działanie systemu, tylko jego błąd.

Dalszy ciąg materiału pod wideo

– Moim zdaniem systemy sztucznej inteligencji i robotyczne już kłamią i manipulują nami, ponieważ zostały tak zaprojektowane. Mamy na przykład asystentów głosowych, takich jak Siri czy Alexa, które są zaprojektowane z użyciem głosów przypominających ludzkie, a konkretnie głosów kobiet. Firmy, które je opracowały, dokonały takiego wyboru, żeby zmanipulować nas do lepszej interakcji z systemem. Są roboty, które mają wyglądać jak ludzie lub mieć cechy przypominające ludzkie, na przykład uśmiechać się i pokazywać emocje, chociaż nic z tych rzeczy nie jest prawdziwe – kłamstwa i manipulacje mają nas skłonić do lepszej interakcji z systemem – mówi badacz z College of Computing w Georgia Institute of Technology w Atlancie.

Sztuczna inteligencja a zaufanie

W podobny sposób, zdaniem naukowca, odbywa się manipulacja poprzez narzędzie, jakim jest ChatGPT. Kiedy popełni on błąd lub kiedy powiemy mu, że jego informacje są nieprawdziwe, przeprasza, chociaż z logicznego punktu widzenia nie może mu być przykro. Zdaniem eksperta takie konstruowanie systemów, by użytkownicy wchodzili z nimi w interakcje, może się okazać wiodącym trendem u dostawców rozwiązań z zakresu sztucznej inteligencji, w dużej mierze z uwagi na silne umocowanie kłamstwa w codzienności ludzi.

– Generalnie ludzie lubią twierdzić, że oszukiwanie jest złe. Mamy reguły, które wymagają od nas, żebyśmy nie oszukiwali, ale akceptujemy wyjątki od tych reguł. Możemy powiedzieć, że kłamstwo jest w porządku w danej sytuacji, ponieważ jest to sytuacja szczególna. Na przykład cały czas powtarzamy dzieciom, że nie wolno kłamać i że kłamstwo jest złe, ale jednocześnie okłamujemy je w kwestii istnienia Świętego Mikołaja i w innych podobnych sprawach. Okłamujemy innych, żeby lepiej się poczuli. Możemy powiedzieć: „Dobrze wyglądasz w tym stroju” albo „Wyglądasz świetnie”, chociaż nie musi to być zgodne z prawdą. Mamy reguły społeczne dotyczące kłamstwa i oszukiwania, które świadomie łamiemy, i to dość często. W zależności od tego, z kim system SI wchodzi w interakcję, być może kłamstwo i oszukiwanie jest czymś oczekiwanym, ponieważ może się to okazać lepsze niż postępowanie zgodnie z prawdą czy mówienie prawdy w każdych okolicznościach – twierdzi Kantwon Rogers.

Naukowcy z Georgia Institute of Technology planują rozszerzyć problem badawczy o większą liczbę interakcji i scenariuszy oraz zbadać długoterminowy proces przywracania zaufania utraconego w wyniku kłamstwa.

– Ogólny kierunek moich badań ma na celu uzyskanie informacji i wiedzy o tym obszarze, abyśmy mogli się zająć tworzeniem polityki i wpływaniem na przyszłe kierunki polityki, ponieważ, jak można zaobserwować, innowacje i technologie rozwijają się w tak szybkim tempie, a przepisy zmieniają się tak powoli, że moim zdaniem musimy trzymać rękę na pulsie w tej kwestii – zaznacza badacz.

Więcej ważnych informacji znajdziesz na stronie głównej Inforu

Autopromocja

REKLAMA

Źródło: Newseria.pl

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code
Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

REKLAMA

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

Czy sztuczna inteligencja jest szkodliwa dla środowiska?

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

Czy sztuczna inteligencja namiesza w tegorocznych wyborach?

Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

REKLAMA

Pracownicy nie wiedzą, czy w ich firmach korzysta się ze sztucznej inteligencji

Sztuczna inteligencja jednocześnie fascynuje i budzi obawy. Na rynku pracy są one związane z możliwą utratą miejsca pracy czy zmianami w strukturze zatrudnienia. Tym bardziej, że pracownicy często nie wiedzą, czy w ich firmach wykorzystuje się AI. 

Jak wykorzystać Gen. AI w biznesie? [10 zasadniczych kroków] Czy umiejętność korzystania ze sztucznej inteligencji daje przewagę konkurencyjną już teraz?

W dynamicznym świecie biznesu innowacje odgrywają kluczową rolę. Sztuczna inteligencja (AI) staje się rewolucyjnym narzędziem, zmieniającym sposób, w jaki firmy funkcjonują i konkurują na rynku. Rozwój generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, stał się punktem zwrotnym dla liderów biznesu, wyznaczając nowe standardy w dziedzinie technologii. W odpowiedzi na ten trend Lazarski University of Technology wprowadza innowacyjny program "Gen AI dla Biznesu", który nie tylko dostarcza teoretycznej wiedzy o sztucznej inteligencji, ale skupia się też na jej praktycznym wykorzystaniu w biznesie. Uczestnicy zdobędą nie tylko wiedzę, ale i niezbędne narzędzia do efektywnego wykorzystania AI w celu rozwijania innowacji i wzmacniania przewagi konkurencyjnej swoich firm.

REKLAMA