REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Sztuczna inteligencja pomoże w blokowaniu nielegalnych treści

AI
Sztuczna inteligencja pomoże w blokowaniu nielegalnych treści
Shutterstock

REKLAMA

REKLAMA

Bazujący na sztucznej inteligencji program, przygotowany przez polskich naukowców, pomoże w pracy moderatorom, którzy czyszczą internet z nielegalnych treści. Program ma rozpoznawać wideo, obrazy i teksty o charakterze pedofilskim.

Program, który powstaje w ramach projektu APAKT, ograniczy kontakt moderatorów z takimi materiałami.

REKLAMA

AI zablokuje nielegalne treści

W Państwowym Instytucie Badawczym NASK działa Dyżurnet.pl - zespół, którego zadaniem jest blokowanie w internecie nielegalnych materiałów, szczególnie związanych z wykorzystywaniem seksualnym dzieci. Należy tam zgłaszać tego rodzaju treści, które znajdzie się w sieci.

REKLAMA

“Moderatorzy Dyżurnet.pl przez wiele godzin każdego dnia przeglądają nielegalne treści - czy to zgłoszone przez użytkowników, czy to wskazane przez scrapery, czyli algorytmy, które same wyszukują w sieci materiały o specyficznych parametrach” - mówi dr Inez Okulska z Pionu Sztucznej Inteligencji NASK. Tłumaczy, że takich zgłaszanych treści jest bardzo dużo, a ktoś musi je zawsze przejrzeć, aby ocenić, czy materiał ten rzeczywiście przedstawia nielegalne treści i czy należy go zablokować. A osobę, która to udostępniła - ścigać.

Martyna Różycka, szefowa Dyżurnet.pl, tłumaczy, że najpilniejszym zadaniem jest wychwycenie spośród zgłoszeń materiałów, które nie były wcześniej zgłaszane, a które pokazują seksualne wykorzystywanie dzieci. Jeśli takie materiały powstały niedawno, to może jakiemuś dziecku nadal wyrządzana jest krzywda. Trzeba wtedy jak najszybciej znaleźć sprawcę i chronić potencjalną ofiarę. “Większość jednak materiałów, które trzeba blokować, to treści, które powstały lata temu, jednak wciąż są kopiowane i udostępniane w kolejnych miejscach” - mówi Różycka.

NASK i Politechnika Warszawska wykorzystują sztuczną inteligencję

REKLAMA

Aby usprawnić pracę moderatorów - i ochronić ich przed kontaktem z obciążającymi psychiczne treściami - NASK we współpracy z Politechniką Warszawską postanowił wykorzystać sztuczną inteligencję. Opracowany przez badaczy algorytm, w ramach projektu APAKT, ma za zadanie automatycznie analizować nielegalne treści, które trafiają do moderatorów i proponować, w jakiej kolejności zająć się zgłoszeniami - zaczynając od tych wymagających najszybszej interwencji.

Dalszy ciąg materiału pod wideo

I tak np. program będzie mógł wskazać z 90-procentową pewnością, że dany plik przypomina znany już wcześniej materiał. Dzięki temu moderator będzie mógł szybko ocenić i potwierdzić, czy zgadza się z oceną programu. To zaoszczędzi nie tylko czas, ale również ochroni kondycję psychiczną moderatorów, którzy nie będą musieli samodzielne porównywać, czy rzeczywiście już kiedyś coś podobnego pojawiło się w bazie.

Model ten nie jest - w odróżnieniu od wielu systemów AI - wyłącznie "czarną skrzynką", która wypluwa odpowiedzi bez żadnej możliwości skontrolowania, skąd wzięła się jej decyzja. APAKT będzie w stanie wyjaśnić, dlaczego uznał dany materiał tekstowy za pedofilski. Bo, co nieoczywiste, system ten jest w stanie sklasyfikować nie tylko materiały wideo i zdjęcia, ale także teksty narracyjne opisujące seksualne wykorzystanie dzieci.

"Prezentowanie pedofilii na poziomie wideo oraz zdjęć jest w Polsce nielegalne. Jeśli jednak chodzi o tekst, to kwestia ta nie jest precyzyjnie uregulowana w polskim prawie" - zwraca uwagę dr Okulska.

Badaczka wymienia, że są dwa rodzaje problematycznych tekstów związanych z pedofilią. Jednym z nich są teksty groomingowe. "Chodzi o nagabywanie osoby nieletniej przez dorosłą w celu pozyskania nagich zdjęć lub skłonienia do kontaktów seksualnych" - opowiada dr Okulska i tłumaczy, że grooming jest karalny i takimi sprawami zajmuje się prokuratura.

Dodaje jednak, że istnieje inny problem - teksty, które opowiadają historie o treściach erotycznych czy pornograficznych, ale z udziałem osób nieletnich. "W takich tekstach dużo rzeczy dzieje się w szkole, między osobą starszą i dzieckiem. Dużo jest też tam wątków kazirodztwa" - opisuje dr Okulska. I dodaje, że sposób podawania treści w bardzo wielu tego typu tekstach jest szkodliwy.

"Moderatorzy nie mają wątpliwości - takie teksty są szkodliwe społecznie. Treści te propagują pedofilię, zachowania, które są absolutnie niedopuszczalne i nigdy nie powinny być normalizowane. Naszym zdaniem powinno być jasno powiedziane, że są to treści nielegalne" - ocenia Martyna Różycka.

A dr Okulska tłumaczy: "Nie dość, że takie teksty są źle napisane i grafomańskie, to jeszcze opowieść jest w nich zwykle budowana stopniowo. Zanim moderator zdąży się zorientować, czy dany tekst jest niewinny czy promuje pedofilię, musi sporo przeczytać, wczuć się w bohaterów. Treści, które przeczyta, zostają w jego pamięci. A to nieprzyjemne, ciężkie tematy. Moderatorzy mają opiekę psychologiczną, ale naturalna była chęć, aby wprowadzić modele, które moderatorom ułatwią pracę".

Badaczka wyjaśnia, że program APAKT będzie w stanie wskazać moderatorowi konkretne fragmenty tekstu, które świadczą o tym, że materiał rzeczywiście opisuje sceny seksualne z wykorzystaniem nieletnich. Program ten ma sam wskazać szkodliwe elementy.

Dr Okulska opowiada o tym, że prace nad programem APAKT były o tyle skomplikowane, że algorytm musiał być trenowany na materiałach pedofilskich, których przechowywanie jest nielegalne lub kontrowersyjne. A jedynym zespołem w Polsce, który może bezpośrednio analizować treści pornograficzne z udziałem dzieci jest Dyżurnet.pl (zgodnie z Ustawą o Krajowym systemie Cyberbezpieczeństwa).

"Naukowcy tworzący modele nie mogli i nie chcieli mieć dostępu do danych Dyżurnet.pl, na których uczyły się algorytmy. A można się domyślić, że tworzenie algorytmów klasyfikujących pewne obiekty bez możliwości podejrzenia tych obiektów jest bardzo trudne. To praca z opaską na oczach" - mówi dr Okulska.

Dodaje jednak, że dzięki temu ograniczeniu w części dotyczącej materiałów pisanych opracowano innowacyjny sposób reprezentacji tekstu na potrzeby AI. Jak opisuje, ekspercko skonfigurowane wektory StyloMetrix pozwalają na wysokiej jakości klasyfikację, ale jednocześnie nie skupiają się wyłącznie na znaczeniu. Są wyjaśnialne, głównie na poziomie gramatycznym, statystycznym – a więc w kontekście takich tematów "bezpieczne" dla badacza.

Sztuczna inteligencja do selekcji materiałów

Dodaje, że sztuczna inteligencja nie działa jeszcze na etapie zbierania danych, ale na etapie selekcji materiałów wstępnie wybranych do oceny. Badania realizowane są w ramach grantu NCBR, program ma być gotowy do użytku w ciągu kilku miesięcy. Skuteczność na razie oceniana jest na ok. 80 proc.

Badacze liczą również, że programem APAKT zainteresują się dostawcy internetu czy właściciele dużych portali, którzy - w świetle projektu nowej ustawy - odpowiadać mają za blokowanie dostępu osobom nieletnim do pornografii. Ale program może się również przydać policji czy biegłym sądowym.

Programem zainteresowane mogą być też zagraniczne instytucje zajmujące się usuwaniem w internetu treści o charakterze pedofilskim. APAKT radzi sobie bowiem z wykrywaniem pedofilii na wideo i zdjęciach niezależnie od języka. Jeśli chodzi o wykrywanie treści w tekstach - program działa na razie jedynie w języku polskim, natomiast wykorzystany w nim m.in. model RoBERTa czy wektory StyloMetrix obecnie dostępne są zarówno w języku angielskim, jak i ukraińskim.

Nauka w Polsce, Ludwika Tomala

 

Autopromocja

REKLAMA

Źródło: PAP

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code
Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Trzeba pilnie dokonać implementacji! Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI)

Ruszyły prace nad polskim aktem o sztucznej inteligencji (AI). Ministerstwo Cyfryzacji przygotowało kilka pytań - trwają prekonsultacje. Podkreśla się, że to pierwsze na świecie prawo, które w tak złożony a zarazem kompleksowy sposób rozwiązuje problemy, które nawarstwiały się od wielu, wielu lat związane z rozwojem sztucznej inteligencji. Płaszczyzn tych problemów jest wiele: od prawa do ochrony wizerunku, danych, odpowiedzialności za błędy sztucznej inteligencji (cywilnej, administracyjnej i karnej), praw pracowniczych, po prawa konsumenckie, autorskie i własności przemysłowej. Nowe unijne prawo wymaga wdrożenia w państwach członkowskich UE, w Polsce trwają więc prace nad implementacją. Są one jednak na początkowym etapie.

Microsoft Copilot, czyli jak AI zmieni codzienny workflow w Microsoft 365

Microsoft Copilot to innowacyjne narzędzie oparte na sztucznej inteligencji, które zmienia sposób, w jaki firmy na całym świecie realizują swoje zadania w ramach pakietu Microsoft 365. Według raportu Microsoft "The Future of Work", aż 70% wczesnych użytkowników Copilot zgłasza wzrost produktywności, a 68% odnotowuje znaczącą poprawę jakości swojej pracy. Warto bliżej przyjrzeć się temu narzędziu i zrozumieć, jak działa oraz jakie korzyści może przynieść wdrożenie go do w firmie.

Przełom dla ludzkości, praw człowieka i robotów - podpisano rozporządzenie w sprawie sztucznej inteligencji

Trzeba stanowczo stwierdzić, że to przełom dla ludzkości, przełom dla praw człowieka, przełom dla pracowników i przełom dla robotów oraz automatyzacji. W dniu 13 marca 2024 r. podpisano rozporządzenie w sprawie sztucznej inteligencji, AI (Artificial Intelligence Act). To pierwszy w UE tego typu akt. Był bardzo wyczekiwany przez prawników, pracowników, wielkie koncerny, przedsiębiorców ale i po prostu obywateli. 

W tych zawodach sztuczna inteligencja nam nie zagraża

Międzynarodowy Fundusz Walutowy szacuje, że rozwój sztucznej inteligencji zmniejszy liczbę miejsc pracy nawet o 40%. W dużej części będą to pracownicy umysłowi. A jakie zawody nie są zagrożone przez sztuczną inteligencję?

REKLAMA

Polacy wciąż boją się, ze sztuczna inteligencja zabierze im pracę

Już prawie 60 proc. Polaków obawia się wpływu sztucznej inteligencji na przyszłość swojego stanowiska pracy. To dane z raportu Polskiej Agencji Rozwoju Przedsiębiorczości (PARP) „Rynek pracy, edukacja, kompetencje – styczeń 2024”. Pracownik przyszłości powinien umieć efektywnie wykorzystać możliwości oferowane przez AI. 

77% placówek medycznych doświadczyło ataków na pocztę elektroniczną. Jak chronić dane pacjentów?

Od 2022 r. podwoiły się ataki ransomware na organizacje działające w obszarze ochrony zdrowia. Tak wynika z raportu Barracuda Networks. Respondenci jednak nie czują się zagrożeni. 

Czy sztuczna inteligencja jest szkodliwa dla środowiska?

Rozwój sztucznej inteligencji nie pozostaje bez wpływu na czerpanie zasobów energii i generowanie śladu węglowego. Dlaczego? 

Czy sztuczna inteligencja namiesza w tegorocznych wyborach?

Najgłośniejszym tematem 2023 roku była sztuczna inteligencja. Generatywna AI jest niewątpliwie najszybciej rozwijającym się obszarem sztucznej inteligencji. Czy w tym roku można spodziewać się przełomów? Co z tegorocznymi wyborami pod okiem AI? 

REKLAMA

Pracownicy nie wiedzą, czy w ich firmach korzysta się ze sztucznej inteligencji

Sztuczna inteligencja jednocześnie fascynuje i budzi obawy. Na rynku pracy są one związane z możliwą utratą miejsca pracy czy zmianami w strukturze zatrudnienia. Tym bardziej, że pracownicy często nie wiedzą, czy w ich firmach wykorzystuje się AI. 

Jak wykorzystać Gen. AI w biznesie? [10 zasadniczych kroków] Czy umiejętność korzystania ze sztucznej inteligencji daje przewagę konkurencyjną już teraz?

W dynamicznym świecie biznesu innowacje odgrywają kluczową rolę. Sztuczna inteligencja (AI) staje się rewolucyjnym narzędziem, zmieniającym sposób, w jaki firmy funkcjonują i konkurują na rynku. Rozwój generatywnych modeli sztucznej inteligencji, takich jak ChatGPT, stał się punktem zwrotnym dla liderów biznesu, wyznaczając nowe standardy w dziedzinie technologii. W odpowiedzi na ten trend Lazarski University of Technology wprowadza innowacyjny program "Gen AI dla Biznesu", który nie tylko dostarcza teoretycznej wiedzy o sztucznej inteligencji, ale skupia się też na jej praktycznym wykorzystaniu w biznesie. Uczestnicy zdobędą nie tylko wiedzę, ale i niezbędne narzędzia do efektywnego wykorzystania AI w celu rozwijania innowacji i wzmacniania przewagi konkurencyjnej swoich firm.

REKLAMA