REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Twórcy i użytkownicy sztucznej inteligencji przed sądem. Jest się czego bać?

Sztuczna inteligencja stwarza coraz więcej problemów
Sztuczna inteligencja stwarza coraz więcej problemów
shutterstock

REKLAMA

REKLAMA

Sztuczna inteligencja to temat roku. Z jednej strony wykorzystywana do pracy i rozrywki, a z drugiej do kreowania fake newsów i łamania praw autorskich. Czy unijny AI Act ureguluje wreszcie kwestie korzystania ze sztucznej inteligencji? 

Jak nauczyć się żyć w świecie AI

REKLAMA

– AI to nowe zjawisko w przestrzeni społecznej. Jako społeczeństwo nauczyliśmy się jakoś żyć z mediami społecznościowymi, więc zapewne nauczymy się też żyć w świecie, gdzie sporo treści będzie tworzonych przez systemy sztucznej inteligencji. Ale żeby dobrze w nim funkcjonować, będziemy musieli się stać bardziej krytyczni wobec źródeł, z których czerpiemy treści. Na przykładzie social mediów widać, że na razie nie radzimy sobie z tym zbyt dobrze. Z drugiej strony AI może być z powodzeniem wykorzystywana do analizy wiarygodności informacji, więc z czasem pewnie jakoś to oswoimy – mówi agencji Newseria Biznes Krzysztof Choroszko, członek zarządu Silver Bullet Solutions.

REKLAMA

Sztuczna inteligencja to w ostatnich miesiącach termin odmieniany przez wszystkie przypadki, głównie za sprawą ChatGPT. Generatywna sztuczna inteligencja opracowana przez laboratorium badawcze OpenAI i wypuszczona na rynek pod koniec ubiegłego roku jest nazywana kamieniem milowym w rozwoju tej technologii i cieszy się rekordową popularnością. W niecałe trzy miesiące po debiucie przekroczyła próg 100 mln użytkowników. Coraz większym zainteresowaniem cieszą się też Dall-E czy Midjourney – narzędzia AI służące do generowania obrazów na podstawie poleceń tekstowych, Bing AI Microsoftu czy opracowany przez Google’a Bard, który zadebiutował w marcu br. jako bezpośrednia odpowiedź na sukces ChatGPT.

– W przyszłości zarówno Bard, należący do potęgi, jaką jest Google, jak i Chat GPT, który był pierwszy i zdobył swój kawałek rynku, przynajmniej przez jakiś czas będą hegemonami i będą nadawać ton walce konkurencyjnej. Zwłaszcza że obie organizacje opracowały własne modele językowe. A opracowanie tak dużych modeli językowych nie jest dostępne dla każdej organizacji, biorąc pod uwagę zarówno nakłady techniczne, jak i intelektualne – mówi członek zarządu Silver Bullet Solutions.

Problemy ze sztuczną inteligencją

REKLAMA

Wraz z rosnącą popularnością tych narzędzi pojawia się też coraz więcej problemów i wątpliwości. Rozwiązania oparte na sztucznej inteligencji są bowiem powszechnie wykorzystywane w ramach tzw. sztucznej twórczości (ang. artificial creativity), a tysiące podmiotów zaczęło oferować oparte na nich nowe usługi i aplikacje. To z kolei zrodziło szereg wątpliwości dotyczących praw autorskich.

Problemów z prawami autorskimi w obszarze AI jest kilka. Po pierwsze, już w tej chwili mamy informacje o pozwach twórców, którzy uważają, że ich dzieła zostały bezprawnie wykorzystane do treningu AI. Tak więc powstaje pytanie, które utwory można stosować do treningu modeli i czy istnieją możliwe do określenia „granice inspiracji” dla generowanych dzieł. Po drugie, w myśl polskich przepisów dzieło stworzone przez system AI nie jest uznawane za utwór w rozumieniu prawa autorskiego. I po trzecie, nie wiemy, co w przypadku naruszenia praw osób trzecich przez dzieło stworzone przez AI i kto powinien w tym przypadku ponieść odpowiedzialność – wymienia Krzysztof Choroszko.

Na początku lipca br. kanadyjska pisarka Mona Awad i amerykański pisarz Paul Tremblay złożyli pozew przeciwko OpenAI, wskazując, że spółka wykorzystała ich książki do trenowania ChatGPT, czym naruszyła ich prawa autorskie. W pozwie zarzucono, że OpenAI nieuczciwie czerpie zyski ze skradzionych tekstów i pomysłów oraz wezwano firmę do odszkodowania finansowego w imieniu wszystkich autorów w USA, których prace zostały rzekomo wykorzystane do szkolenia chatbota. Podobny pozew przeciwko firmom OpenAI i Meta został niedawno złożony w amerykańskim sądzie przez kolejnych autorów – Christophera Goldena, Richarda Kadreya i komiczkę Sarah Silverman.

Kolejnym problemem związanym z AI jest również większe zagrożenie dezinformacją i deep fake’ami, a także to, w jakim celu użytkownicy korzystają z narzędzi opartych na sztucznej inteligencji. Dla zobrazowania – coraz więcej uczelni wprowadza w tej chwili zmiany w zasadach zaliczania egzaminów końcowych, ponieważ studenci zaczęli masowo wykorzystywać AI do pisania esejów i prac zaliczeniowych.

Użytkownicy AI przed sądem

– Miesiąc temu w Stanach Zjednoczonych głośna była sprawa, w której prawnicy zostali ukarani przez sąd, ponieważ w ramach materiału dowodowego dostarczyli materiał wygenerowany przez AI, powołujący się na nieistniejące sprawy sądowe. Dlatego właśnie sądzę, że największym zagrożeniem jest to, że zaczniemy zbyt mocno polegać na wynikach pracy sztucznej inteligencji – mówi ekspert Silver Bullet Solutions. – Ważnym zagrożeniem jest również to, że dane użyte do uczenia modeli językowych mogą wpływać na wyniki w sposób dyskryminujący niektóre grupy społeczne.

Jak podkreśla, kwestia uregulowania odpowiedzialności za błędy systemów AI czy ich nieprawidłowego wykorzystania będzie istotnym wyzwaniem. 

– Sądzę jednak, że odpowiedzialność za użycie narzędzia AI ponosi przede wszystkim użytkownik. Natomiast dostawcy takich rozwiązań powinni ponosić odpowiedzialność za ewentualne intencjonalne wypaczenie działania oferowanego rozwiązania AI, np. za tendencyjny dobór danych uczących. Ten obszar będzie bardzo trudny do uregulowania, ponieważ na ten moment nie do końca wiemy, jak zadziałała sieć neuronowa i które z miliardów parametrów dały określony wynik działania systemu AI – podkreśla Krzysztof Choroszko. –Odpowiedzialność za wykorzystywanie AI będzie nieco inaczej postrzegana przez europejski i amerykański system prawny, co wynika chociażby z różnego podejścia do prawa autorskiego i danych osobowych. Regulacje europejskie z pewnością ukierunkują rozwój i wykorzystanie mechanizmów sztucznej inteligencji zwłaszcza w obszarze praw autorskich, w zakresie których jesteśmy w Europie szczególnie wrażliwi.

Ekspert SBS ocenia, że na dalszy rozwój tej technologii wpłyną niedługo dwa kluczowe wymogi prawne: wymóg informowania o tym, że dany utwór, obraz lub treść zostały wygenerowane przez AI oraz jakie źródła zostały wykorzystane do wytrenowania modelu językowego.

– To z jednej strony utrudni dowolne tworzenie nowych modeli, a z drugiej umożliwi m.in. walkę z częścią fake newsów – przewiduje.

Unijny akt o sztucznej inteligencji - o co chodzi? 

Wprowadzenie takich wymogów zakłada unijny Akt o sztucznej inteligencji (AI Act). Jest to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów AI i ich zastosowań oraz ograniczenia negatywnych skutków z tym związanych. W przyszłości ma ona wywrzeć duży wpływ nie tylko na rozwój tej technologii, ale i dotyczące jej ustawodawstwo w krajach poza Unią Europejską.

– Ta regulacja skupia się na ograniczeniu ryzyka związanego z wykorzystaniem AI, czyli wprost zakazuje pewnych jej zastosowań, np. w obszarze predykcji zachowań dla organów ścigania. Nakazuje też oznaczanie utworów stworzonych przez sztuczną inteligencję. AI Act dotyczy jednak tylko jej komercyjnych zastosowań – mówi Krzysztof Choroszko.

Dokument dzieli systemy AI na cztery kategorie pod względem poziomu ryzyka, który wiąże się z ich wykorzystaniem (nieakceptowalne, wysokie, niskie i minimalne ryzyko). Jako nieakceptowalne ryzyko zostało sklasyfikowane to, które stwarza zagrożenie dla obywateli. Do tej kategorii zalicza się np. sztuczna inteligencja wykorzystująca technologie biometryczne do identyfikacji i kategoryzacji ludzi. Z drugiej strony na systemy AI niskiego ryzyka również nałożono pewne wymogi dotyczące m.in. transparentności, aby użytkownik mógł rozpoznać, że korzysta z tej technologii.

AI Act został już przyjęty przez Parlament Europejski w czerwcu br. Jednak jego kształt – budzący niezadowolenie takich gigantów jak Google czy Facebook (po przyjęciu regulacji ten pierwszy odwołał premierę Barda w krajach na terenie UE) – nie jest jeszcze ostateczny, ponieważ kolejny krok to negocjacje z Radą i państwami członkowskimi  UE. Celem jest wypracowanie porozumienia dotyczącego ostatecznego kształtu tej regulacji do końca tego roku.

 

Więcej ważnych informacji znajdziesz na stronie głównej Infor.pl

Autopromocja

REKLAMA

Źródło: Newseria.pl
Czy ten artykuł był przydatny?
tak
nie
Dziękujemy za powiadomienie - zapraszamy do subskrybcji naszego newslettera
Jeśli nie znalazłeś odpowiedzi na swoje pytania w tym artykule, powiedz jak możemy to poprawić.
UWAGA: Ten formularz nie służy wysyłaniu zgłoszeń . Wykorzystamy go aby poprawić artykuł.
Jeśli masz dodatkowe pytania prosimy o kontakt

REKLAMA

Komentarze(0)

Pokaż:

Uwaga, Twój komentarz może pojawić się z opóźnieniem do 10 minut. Zanim dodasz komentarz -zapoznaj się z zasadami komentowania artykułów.
    QR Code
    Sztuczna inteligencja (AI)
    Zapisz się na newsletter
    Zobacz przykładowy newsletter
    Zapisz się
    Wpisz poprawny e-mail
    Czy sztuczna inteligencja to przełom czy bańka inwestycyjna?

    Od udostępnienia szerokiemu gronu użytkowników narzędzia Chat GPT mija dokładnie rok. Jak można się domyślić, sztuczna inteligencja a swoich entuzjastów i przeciwników. Wielu ekspertów uważaj również AI za bańkę inwestycyjną, która prędzej czy później pęknie. Jak jest naprawdę? 

    Sztuczna inteligencja zmieni miejsca pracy, ale ich nie wyeliminuje

    W listopadzie 2023 r. w Brukseli odbyła się druga edycja Europejskiego Forum Zatrudnienia i Praw Socjalnych. Przedmiotem dyskusji był wpływ sztucznej inteligencji (AI) na rynek pracy i status prawny pracowników. Przedstawiciele UE stanowczo podkreślali, że: pracownicy muszą czerpać korzyści z przełomowych rozwiązań, takich jak ChatGPTP. Deliberowano też o przyszłości pracy platformowej.

    Raport Future of Work 2024: sztuczna inteligencja zwiększa produktywność pracowników o 30%

    Raport Future of Work 2024: sztuczna inteligencja zwiększa produktywność pracowników o 30%. Według danych zawartych w najnowszym raporcie Talent Alpha „The World of Work AI-ed” ponad 90% wiodących dostawców usług, a także jedna trzecia wszystkich pracowników już korzysta z rozwiązań sztucznej inteligencji (ang. Artificial Intelligence – AI). Dzięki temu część firm doświadczyła dużego wzrostu produktywności.

    Jak sztuczna inteligencja może przydać się w administracji rządowej? Jak może pomóc obywatelom?

    Jak wykorzystać sztuczną inteligencję w biznesie i sektorze publicznym? Z jakimi wyzwaniami się to wiąże? Jak wyedukować pracowników do współpracy z AI? raport pt. „Współpraca Człowieka z AI: Perspektywy dla polskiego sektora publicznego” bierze pod lupę te kwestie. 

    REKLAMA

    Inteligentne systemy transportowe. Co zmienia nowa dyrektywa?

    Rada UE przyjęła nowe przepisy zmieniające dyrektywę z 2010 r. dotyczącą wdrażania inteligentnych systemów transportowych. Aktualizacja rozwiązań sprzed trzynastu lat była konieczna, aby dostosować jej zapisy do aktualnych standardów technologicznych, przyspieszyć transformację cyfrową i wesprzeć europejską mobilność. 

    Projekt AI Act – co przyniosą unijne przepisy dotycząca sztucznej inteligencji?

    AI Act to projekt regulacji dotyczącej sztucznej inteligencji, która we wszystkich państwach członkowskich Unii Europejskiej wprowadzi jednolite prawo związane z tym obszarem. Celem jest stworzenie takich ram prawnych, aby rozwiązania bazujące na mechanizmach sztucznej inteligencji były godne zaufania i zgodne z wartościami oraz prawami obowiązującymi w UE. Co szczególnie istotne, rozporządzenie ma też chronić zdrowie oraz bezpieczeństwo obywateli.

    Uwaga na teksty, które opracowuje nasz zleceniobiorca przy pomocy AI. Na co zwrócić uwagę w umowie z twórcą?

    W przestrzeni internetowej coraz więcej pojawia się tekstów, które są tworzone przy użyciu sztucznej inteligencji (AI). Sporo twórców internetowych korzysta z technologii, którą daje nam np. ChatGPT. Na co należy zwrócić uwagę, podpisując umowę na określone teksty?

    7 wyzwań biznesowych, które może rozwiązać AI (z niewielkim wsparciem ludzi)

    Początki sztucznej inteligencji (AI) sięgają lat 50. XX wieku. W porównaniu do technologii takich jak telefon, komputery czy Internet, ewolucja AI przebiegała dotąd stosunkowo wolno. Wydaje się jednak, że nadszedł moment, w którym AI jest dostępna dla prawie każdego, a branża technologiczna wkracza w nowy rozdział. Wszyscy musimy zastanowić się nad tym, jak sztuczna inteligencja może pomóc nam robić więcej za mniej. Zastosowanie AI w pisaniu, tworzeniu obrazów czy produkcji muzyki to przełomowy moment w budowaniu świadomości społecznej związanej z możliwościami tej technologii.

    REKLAMA

    Badanie: Niemal co trzecia firma zwolniła w ostatnim roku minimum jedną osobę w wyniku automatyzacji oraz AI

    Większość firm uważa, że automatyzacja i AI przyczynią się do redukcji etatów (57 proc.). Pracownicy zaczynają tego doświadczać. Niemal co trzeci przedsiębiorca w ostatnim roku zwolnił co najmniej jedną osobę na rzecz robota lub sztucznej inteligencji – wynika z najnowszego „Barometru Polskiego Rynku Pracy” Personnel Service. 

    Sztuczna inteligencja pomoże w leczeniu niepłodności. Wybierze zarodek, który da największą szansę na ciążę

    Naukowcy z kliniki Gyncentrum opracowali własny algorytm do oceny zarodków, który na podstawie 12 różnych parametrów w kilka minut identyfikuje najlepiej rozwijające się zarodki. Nowy algorytm oparty na sztucznej inteligencji ma stać się codzienną pomocą w pracy embriologów.

    REKLAMA