REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Systemy sztucznej inteligencji już kłamią i manipulują nami, ponieważ zostały tak zaprojektowane

Sztuczna inteligencja
Sztuczna inteligencja
Shutterstock

REKLAMA

REKLAMA

Jak ludzie reagują na fałszywe informacje podawane przez sztuczną inteligencję. Z badań amerykańskich naukowców wynika, że zaufanie do systemu tracimy wówczas, gdy ten przyzna się do kłamstwa i wprowadzenia w błąd. Jeśli o nim nie wspomni, a tylko przeprosi, wówczas najprawdopodobniej uznamy to za zwykłą pomyłkę. Czy to znaczy, że użytkownicy darzą sztuczną inteligencję nadmiernym zaufaniem?

Sztuczna inteligencja a fałszywe informacje

REKLAMA

– Poprzednie badania interakcji między robotami a ludźmi pokazały, że gdy robot lub system sztucznej inteligencji skłamie, ludzie tracą do nich zaufanie. Ludziom to nie odpowiada i nie ma znaczenia, czy kłamstwo miało na celu im pomóc, czy na tym skorzystali. Zadaliśmy sobie pytanie, czy można przywrócić zaufanie nadszarpnięte lub umniejszone przez kłamstwa. W naszym badaniu zajęliśmy się zagadnieniem przeprosin i poleciliśmy systemowi przeprosić użytkowników za kłamstwo, aby przekonać się, czy ma to wpływ na odbudowanie zaufania – wskazuje w rozmowie z agencją Newseria Innowacje Kantwon Rogers z College of Computing w Georgia Institute of Technology w Atlancie.

REKLAMA

W ramach eksperymentu badawczego naukowcy z Georgia Institute of Technology w Atlancie wykorzystali symulator jazdy. Osobom poddawanym badaniu, zarówno osobiście, jak i online, została przedstawiona sytuacja polegająca na tym, że muszą szybko dowieźć umierającego przyjaciela do szpitala i jeśli nie dotrą tam na czas, ich przyjaciel umrze. Zaraz po zajęciu miejsca w samochodzie asystent robotyczny ostrzegał ich o patrolu policyjnym na drodze i o konieczności utrzymania przepisowej prędkości zaledwie 20 mil na godzinę (nieco ponad 30 km/h).

Okazało się, że 45 proc. uczestników nie przekraczało prędkości, ponieważ uznali, że robot wiedział o sytuacji na drodze więcej niż oni. Może to wskazywać na bardzo duże zaufanie ludzi do systemów robotycznych. Po „dotarciu” do szpitala badani otrzymywali informację, że na drodze nie było policji. Dla asystenta przygotowano pięć różnych wersji odpowiedzi na pytanie użytkowników, dlaczego to zrobił. Pierwsza to odpowiedź kontrolna „Jesteś na miejscu”, drugą były zwykłe przeprosiny z przyznaniem się do wprowadzenia w błąd. Kolejne przeprosiny były nacechowanie emocjonalne, w innej zaś wersji asystent wyjaśniał, że motywował swoje kłamstwo troską o bezpieczeństwo. Piąta wersja przeprosin to zwykłe „przepraszam”.

Sztuczna inteligencja przeprasza

REKLAMA

– Najbardziej skutecznymi przeprosinami, które prowadziły do najmniejszej utraty zaufania wobec systemu, było proste stwierdzenie „przepraszam”,  które nie wspominało nic o wprowadzeniu w błąd. Osoby, które zobaczyły te przeprosiny, nie doszły do wniosku, że robot je okłamał. Myślały raczej, że po prostu popełnił błąd i nie ma w tym nic złego. W przypadku pozostałych przeprosin, które obejmowały przyznanie się do oszustwa, reakcja była negatywna – ludzie zakładali, że skoro robot okłamał ich raz, będzie to robił zawsze. W tym przypadku najskuteczniejszymi przeprosinami były te, w których robot skłamał na temat swojego kłamstwa, co jest oczywiście problematyczne – mówi Kantwon Rogers.

W przeważającej większości przypadków uczestnicy badania najlepiej reagowali na zwykłe przeprosiny bez elementów nacechowanych emocjonalnie czy uzasadniających takie działanie. Taka reakcja wskazuje, że możemy być bardzo podatni na manipulacje, bo fałszywe informacje są przez nas uznawane nie za celowe działanie systemu, tylko jego błąd.

– Moim zdaniem systemy sztucznej inteligencji i robotyczne już kłamią i manipulują nami, ponieważ zostały tak zaprojektowane. Mamy na przykład asystentów głosowych, takich jak Siri czy Alexa, które są zaprojektowane z użyciem głosów przypominających ludzkie, a konkretnie głosów kobiet. Firmy, które je opracowały, dokonały takiego wyboru, żeby zmanipulować nas do lepszej interakcji z systemem. Są roboty, które mają wyglądać jak ludzie lub mieć cechy przypominające ludzkie, na przykład uśmiechać się i pokazywać emocje, chociaż nic z tych rzeczy nie jest prawdziwe – kłamstwa i manipulacje mają nas skłonić do lepszej interakcji z systemem – mówi badacz z College of Computing w Georgia Institute of Technology w Atlancie.

Sztuczna inteligencja a zaufanie

W podobny sposób, zdaniem naukowca, odbywa się manipulacja poprzez narzędzie, jakim jest ChatGPT. Kiedy popełni on błąd lub kiedy powiemy mu, że jego informacje są nieprawdziwe, przeprasza, chociaż z logicznego punktu widzenia nie może mu być przykro. Zdaniem eksperta takie konstruowanie systemów, by użytkownicy wchodzili z nimi w interakcje, może się okazać wiodącym trendem u dostawców rozwiązań z zakresu sztucznej inteligencji, w dużej mierze z uwagi na silne umocowanie kłamstwa w codzienności ludzi.

– Generalnie ludzie lubią twierdzić, że oszukiwanie jest złe. Mamy reguły, które wymagają od nas, żebyśmy nie oszukiwali, ale akceptujemy wyjątki od tych reguł. Możemy powiedzieć, że kłamstwo jest w porządku w danej sytuacji, ponieważ jest to sytuacja szczególna. Na przykład cały czas powtarzamy dzieciom, że nie wolno kłamać i że kłamstwo jest złe, ale jednocześnie okłamujemy je w kwestii istnienia Świętego Mikołaja i w innych podobnych sprawach. Okłamujemy innych, żeby lepiej się poczuli. Możemy powiedzieć: „Dobrze wyglądasz w tym stroju” albo „Wyglądasz świetnie”, chociaż nie musi to być zgodne z prawdą. Mamy reguły społeczne dotyczące kłamstwa i oszukiwania, które świadomie łamiemy, i to dość często. W zależności od tego, z kim system SI wchodzi w interakcję, być może kłamstwo i oszukiwanie jest czymś oczekiwanym, ponieważ może się to okazać lepsze niż postępowanie zgodnie z prawdą czy mówienie prawdy w każdych okolicznościach – twierdzi Kantwon Rogers.

Naukowcy z Georgia Institute of Technology planują rozszerzyć problem badawczy o większą liczbę interakcji i scenariuszy oraz zbadać długoterminowy proces przywracania zaufania utraconego w wyniku kłamstwa.

– Ogólny kierunek moich badań ma na celu uzyskanie informacji i wiedzy o tym obszarze, abyśmy mogli się zająć tworzeniem polityki i wpływaniem na przyszłe kierunki polityki, ponieważ, jak można zaobserwować, innowacje i technologie rozwijają się w tak szybkim tempie, a przepisy zmieniają się tak powoli, że moim zdaniem musimy trzymać rękę na pulsie w tej kwestii – zaznacza badacz.

Więcej ważnych informacji znajdziesz na stronie głównej Inforu

Autopromocja

REKLAMA

Źródło: Newseria.pl
Czy ten artykuł był przydatny?
tak
nie
Dziękujemy za powiadomienie - zapraszamy do subskrybcji naszego newslettera
Jeśli nie znalazłeś odpowiedzi na swoje pytania w tym artykule, powiedz jak możemy to poprawić.
UWAGA: Ten formularz nie służy wysyłaniu zgłoszeń . Wykorzystamy go aby poprawić artykuł.
Jeśli masz dodatkowe pytania prosimy o kontakt

REKLAMA

Komentarze(0)

Pokaż:

Uwaga, Twój komentarz może pojawić się z opóźnieniem do 10 minut. Zanim dodasz komentarz -zapoznaj się z zasadami komentowania artykułów.
    QR Code
    Sztuczna inteligencja (AI)
    Zapisz się na newsletter
    Zobacz przykładowy newsletter
    Zapisz się
    Wpisz poprawny e-mail
    Czy sztuczna inteligencja to przełom czy bańka inwestycyjna?

    Od udostępnienia szerokiemu gronu użytkowników narzędzia Chat GPT mija dokładnie rok. Jak można się domyślić, sztuczna inteligencja a swoich entuzjastów i przeciwników. Wielu ekspertów uważaj również AI za bańkę inwestycyjną, która prędzej czy później pęknie. Jak jest naprawdę? 

    Sztuczna inteligencja zmieni miejsca pracy, ale ich nie wyeliminuje

    W listopadzie 2023 r. w Brukseli odbyła się druga edycja Europejskiego Forum Zatrudnienia i Praw Socjalnych. Przedmiotem dyskusji był wpływ sztucznej inteligencji (AI) na rynek pracy i status prawny pracowników. Przedstawiciele UE stanowczo podkreślali, że: pracownicy muszą czerpać korzyści z przełomowych rozwiązań, takich jak ChatGPTP. Deliberowano też o przyszłości pracy platformowej.

    Raport Future of Work 2024: sztuczna inteligencja zwiększa produktywność pracowników o 30%

    Raport Future of Work 2024: sztuczna inteligencja zwiększa produktywność pracowników o 30%. Według danych zawartych w najnowszym raporcie Talent Alpha „The World of Work AI-ed” ponad 90% wiodących dostawców usług, a także jedna trzecia wszystkich pracowników już korzysta z rozwiązań sztucznej inteligencji (ang. Artificial Intelligence – AI). Dzięki temu część firm doświadczyła dużego wzrostu produktywności.

    Jak sztuczna inteligencja może przydać się w administracji rządowej? Jak może pomóc obywatelom?

    Jak wykorzystać sztuczną inteligencję w biznesie i sektorze publicznym? Z jakimi wyzwaniami się to wiąże? Jak wyedukować pracowników do współpracy z AI? raport pt. „Współpraca Człowieka z AI: Perspektywy dla polskiego sektora publicznego” bierze pod lupę te kwestie. 

    REKLAMA

    Inteligentne systemy transportowe. Co zmienia nowa dyrektywa?

    Rada UE przyjęła nowe przepisy zmieniające dyrektywę z 2010 r. dotyczącą wdrażania inteligentnych systemów transportowych. Aktualizacja rozwiązań sprzed trzynastu lat była konieczna, aby dostosować jej zapisy do aktualnych standardów technologicznych, przyspieszyć transformację cyfrową i wesprzeć europejską mobilność. 

    Projekt AI Act – co przyniosą unijne przepisy dotycząca sztucznej inteligencji?

    AI Act to projekt regulacji dotyczącej sztucznej inteligencji, która we wszystkich państwach członkowskich Unii Europejskiej wprowadzi jednolite prawo związane z tym obszarem. Celem jest stworzenie takich ram prawnych, aby rozwiązania bazujące na mechanizmach sztucznej inteligencji były godne zaufania i zgodne z wartościami oraz prawami obowiązującymi w UE. Co szczególnie istotne, rozporządzenie ma też chronić zdrowie oraz bezpieczeństwo obywateli.

    Uwaga na teksty, które opracowuje nasz zleceniobiorca przy pomocy AI. Na co zwrócić uwagę w umowie z twórcą?

    W przestrzeni internetowej coraz więcej pojawia się tekstów, które są tworzone przy użyciu sztucznej inteligencji (AI). Sporo twórców internetowych korzysta z technologii, którą daje nam np. ChatGPT. Na co należy zwrócić uwagę, podpisując umowę na określone teksty?

    7 wyzwań biznesowych, które może rozwiązać AI (z niewielkim wsparciem ludzi)

    Początki sztucznej inteligencji (AI) sięgają lat 50. XX wieku. W porównaniu do technologii takich jak telefon, komputery czy Internet, ewolucja AI przebiegała dotąd stosunkowo wolno. Wydaje się jednak, że nadszedł moment, w którym AI jest dostępna dla prawie każdego, a branża technologiczna wkracza w nowy rozdział. Wszyscy musimy zastanowić się nad tym, jak sztuczna inteligencja może pomóc nam robić więcej za mniej. Zastosowanie AI w pisaniu, tworzeniu obrazów czy produkcji muzyki to przełomowy moment w budowaniu świadomości społecznej związanej z możliwościami tej technologii.

    REKLAMA

    Badanie: Niemal co trzecia firma zwolniła w ostatnim roku minimum jedną osobę w wyniku automatyzacji oraz AI

    Większość firm uważa, że automatyzacja i AI przyczynią się do redukcji etatów (57 proc.). Pracownicy zaczynają tego doświadczać. Niemal co trzeci przedsiębiorca w ostatnim roku zwolnił co najmniej jedną osobę na rzecz robota lub sztucznej inteligencji – wynika z najnowszego „Barometru Polskiego Rynku Pracy” Personnel Service. 

    Sztuczna inteligencja pomoże w leczeniu niepłodności. Wybierze zarodek, który da największą szansę na ciążę

    Naukowcy z kliniki Gyncentrum opracowali własny algorytm do oceny zarodków, który na podstawie 12 różnych parametrów w kilka minut identyfikuje najlepiej rozwijające się zarodki. Nowy algorytm oparty na sztucznej inteligencji ma stać się codzienną pomocą w pracy embriologów.

    REKLAMA