REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Projekt AI Act – co przyniosą unijne przepisy dotycząca sztucznej inteligencji?

Projekt AI Act dzieli sposoby stosowania sztucznej inteligencji na trzy kategorie ryzyka: wysokie, ograniczone i minimalne
Shutterstock

REKLAMA

REKLAMA

AI Act to projekt regulacji dotyczącej sztucznej inteligencji, która we wszystkich państwach członkowskich Unii Europejskiej wprowadzi jednolite prawo związane z tym obszarem. Celem jest stworzenie takich ram prawnych, aby rozwiązania bazujące na mechanizmach sztucznej inteligencji były godne zaufania i zgodne z wartościami oraz prawami obowiązującymi w UE. Co szczególnie istotne, rozporządzenie ma też chronić zdrowie oraz bezpieczeństwo obywateli.

Projekt AI Act dzieli sposoby stosowania sztucznej inteligencji na trzy kategorie ryzyka: wysokie, ograniczone i minimalne. W każdej z nich nałożone są wymogi dotyczące jakości danych, przejrzystości działania, nadzoru przez człowieka oraz odpowiedzialności, które muszą spełniać dostawcy rozwiązań sztucznej inteligencji oraz użytkownicy. Rozporządzenie wskazuje też przypadki, w których używanie AI będzie niedopuszczalne.

REKLAMA

REKLAMA

Kategoria wysokiego ryzyka w AI Act

Kategoria wysokiego ryzyka obejmie rozwiązania sztucznej inteligencji, które mają znaczący wpływ na życie ludzkie lub podstawowe prawa człowieka. To m.in. systemy biometryczne, transport, ochrona zdrowia, edukacja czy rekrutacja. Kategoria ograniczonego ryzyka obejmuje te zastosowania AI, które mają mniejszy wpływ na ludzi, ale jednocześnie wymagają wprowadzenia zasad przejrzystości działania, np. chatboty, asystenty głosowe czy systemy udzielające rekomendacji. Kategoria minimalnego ryzyka obejmuje rozwiązania, które mają niewielki lub zerowy wpływ na ludzi i nie podlegają szczególnym wymaganiom, takie jak gry komputerowe, filtry stosowane do grafik i zdjęć czy interaktywne zabawki.

– AI Act to pierwsze kompleksowe prawo dotyczące sztucznej inteligencji i zdecydowanie krok w dobrym kierunku. Wyraźne wskazanie kategorii zastosowań AI i tych obszarów, w których sztuczna inteligencja nie może być używana, nałoży na firmy techniczne ramy prawne, do których będą musiały się stosować – mówi Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa, VP w firmie WithSecure. – Takie podejście pomoże powstrzymywać rozwijanie AI w obszarach, które mogą być szkodliwe dla poszczególnych użytkowników oraz całego społeczeństwa, ale jednocześnie kuszą możliwością uzyskania dużego i szybkiego przychodu. W czasach, gdy firmy nieustannie szukają nowych źródeł zysku, naiwne byłoby oczekiwanie, że będą same ograniczały się w sytuacji, gdy konkurencja na rynku jest coraz bardziej zacięta. 

Rozporządzenie przewiduje utworzenie europejskiego urzędu ds. sztucznej inteligencji, który będzie monitorował proces wdrażania i egzekwowania przepisów, a także wspierał innowacje i rozwój AI w Europie. AI Act prawdopodobnie zacznie obowiązywać w ciągu kilku najbliższych lat. Dokładna data jego wprowadzenia nie jest jeszcze znana, jednak może to nastąpić już pod koniec 2023 roku

REKLAMA

Dane do trenowania modeli AI muszą być rzetelne

Bardzo ważnym aspektem proponowanych regulacji jest wykorzystywanie danych do trenowania modeli AI. W przypadku zastosowań wysokiego ryzyka nowe regulacje będą wymagały od dostawców mechanizmów sztucznej inteligencji odpowiedniego poziomu staranności w przetwarzaniu danych – będą one musiały m.in. być pozbawione błędów oraz błędnej reprezentacji, związanej np. z uprzedzeniami. Pojawią się także wymogi dotyczące zarządzania danymi: sposoby wykorzystywania ich w modelach AI będą musiały być przejrzyste dla użytkowników

Dalszy ciąg materiału pod wideo

Regulacje AI Act. Dwie wersje rozwiązań na różne rynki

Regulacje AI Act tworzą też jednak obszary ryzyka, które powinny być uwzględniane podczas wprowadzania nowego prawa. Akt ma obowiązywać jedynie na terenie Unii Europejskiej, więc firmy, które operują poza obszarem wspólnoty, nie będą podlegały ograniczeniom. Może dojść do sytuacji, w której globalni gracze będą wypuszczali specjalną wersję swojego rozwiązania lub usługi na rynek europejski oraz „pełną” wersję na pozostałe, nieuregulowane rynki. 

– Nie jest to problem z perspektywy unijnej, jednak może doprowadzić do rozwijania się globalnej gospodarki dwóch prędkości – zauważa Leszek Tasiemski. – Firmy, które nie będą podlegały regulacjom AI Act, nie będą musiały brać pod uwagę tego typu wymogów i nie będą obciążone kosztami czy formalnościami związanymi z europejskimi przepisami, dopóki nie będą obsługiwały krajów i obywateli UE. Nowe rozporządzenie może znacznie zwiększyć koszty tworzenia i wprowadzania na rynek innowacyjnych produktów zwłaszcza z perspektywy małych firm. Dlatego przepisy wykonawcze powinny być ułożone tak, aby wprowadzić nadzór i wyegzekwować potrzebne ograniczenia, ale też zminimalizować związany z tym nakład pracy i koszty dla mniejszych firm. 

AI Act w kontekście bezpieczeństwa

Niestety, nie należy oczekiwać, że po wprowadzeniu AI Act zmniejszy się liczba czy natężenie spersonalizowanych ataków phishingowych oraz innych kampanii wykorzystujących metody socjotechniczne. Grupy cyberprzestępcze coraz częściej stosują mechanizmy sztucznej inteligencji, ale jako że z definicji nie respektują żadnych przepisów ani praw, nie będą też w żaden sposób ograniczone przez nowe regulacje. Sztuczna inteligencja wciąż więc będzie służyła do tworzenia masowych kampanii phishingu czy dezinformacji.

– Trzeba pamiętać, że jesteśmy dopiero na początku cyklu wykorzystania technologii sztucznej inteligencji, a zwłaszcza takich modeli jak ChatGPT – podsumowuje Leszek Tasiemski. – W wielu dziedzinach dopiero raczkujemy i można spodziewać się dynamicznego pojawiania się oraz rozrostu zupełnie nowych, nieoczywistych obszarów zastosowania algorytmów. Kluczowe będzie sformułowanie przepisów w zbalansowany sposób, a także elastyczne i innowacyjne podejście instytucji, które mają powstać do ich egzekucji. Regulacje nie powinny być zbyt ogólne, a jednocześnie powinny być przygotowane na to, czego jeszcze nie wiemy i nad czym dopiero pracują cyfrowe laboratoria.

Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa, VP w firmie WithSecure

Źródło: Źródło zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Sztuczna inteligencja (AI)
AI w biznesie – praktyczne zastosowania w księgowości, kadrach i innych działach firmy

Sztuczna inteligencja coraz mocniej wchodzi do firmowej codzienności. Już nie tylko wspiera pisanie tekstów czy analizę danych, ale realnie usprawnia obieg dokumentów i całe procesy biznesowe. Narzędzia takie jak np. AMODIT Copilot, AskAI i AI OCR pomagają automatyzować zadania w finansach, HR, prawie, zakupach i IT, odciążając zespoły i przyspieszając pracę organizacji.

AI wychodzi już z centrów danych. Roboty z neuromorficznymi chipami odbierają bodźce w czasie rzeczywistym jak ludzki mózg i zmysły

Do 2028 r. globalne wydatki na infrastrukturę brzegową mają wzrosnąć z 261 mld do 380 mld dolarów, co jest konsekwencją zwiększającego się zapotrzebowania na inteligentne i energooszczędne rozwiązania do przetwarzania danych. Pomocne w zaspokojeniu tego wyzwania może być neuromorficzne podejście do obliczeń, które zaczyna „wypychać” sztuczną inteligencję poza centra danych, umożliwiając działanie jej mechanizmów bliżej źródeł informacji. Znajduje ono już zastosowanie w robotyce, medycynie, modelowaniu klimatu czy cyberbezpieczeństwie. Jednak, jak wskazują eksperci Vertiv, za rozwojem takich rozwiązań wciąż nie nadąża infrastruktura (zarówno sprzętowa, jak i programowa) potrzebna do ich wdrażania na większą skalę.

AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.

Rewolucja w prawie AI! Firmy używające AI muszą się dostosować.

Długo oczekiwany projekt przepisów o systemach sztucznej inteligencji trafi wkrótce pod obrady Rady Ministrów. Tak powiedział Infor.pl Sekretarz Stanu w Ministerstwie Cyfryzacji. Nastąpiła zatem długo wyczekiwana zmiana w harmonogramie legislacyjnym i w końcu projekt opuścił Ministerstwo Cyfryzacji.

REKLAMA

Test sztucznej inteligencji. Wiadomo, jak wypadły polskie modele AI

W pierwszym „polskim” teście dużych modeli językowych krajowe systemy AI, Bielik i PLLuM wypadły znacznie gorzej od globalnych narzędzi.

Prywatność i wizerunek a AI. Jak chronić dane w czasach nowych technologii?

Rozwój cyfrowy niesie za sobą szereg wyzwań związanych z ochroną naszych danych. Z czym wiąże się nieuprawnione wykorzystanie wizerunku? Jakie praktyczne problemy może stwarzać dla prywatności rozwój sztucznej inteligencji?

Czy zasady zawarte w Konstytucji RP chronią jednostkę przed stosowaniem sztucznej inteligencji?

Wprowadzenie SI do dziedzin życia, ma możliwości poprawy bezpieczeństwa i jakości życia jednostki. Jednak istniejące ryzyko naruszenia prywatności i bezpieczeństwa danych osobowych, zmusza do zapewnienia zgodności z prawem, przejrzystości działania systemów AI oraz ochrony wrażliwych danych, takich jak dane biometryczne.

Sztuczna inteligencja w pismach procesowych: sąd wydał wyrok

W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.

REKLAMA

Bezpłatny webinar: Automatyzacja finansów – AI i boty nie gryzą

Praktyczne scenariusze dla działów księgowych i finansowych. Sztuczna inteligencja i użycie botów symulujących pracę człowieka – to nie żadna futurystyka czy wstęp do masowych zwolnień. Istnieje cała masa powtarzalnych czynności, w których technologia może wyręczyć Waszych pracowników.

Narodowa sztuczna inteligencja! Po co nam PLLuM i Bielik? [Gość Infor.pl]

W powszechnym odbiorze sztuczna inteligencja często utożsamiana jest z popularnymi czatbotami, takimi jak ChatGPT. Jednak – jak podkreśla wiceminister cyfryzacji Dariusz Standerski – to uproszczenie. Modele językowe to tylko jedna z gałęzi AI, a jej rozwój to efekt dziesięcioleci pracy w obszarach uczenia maszynowego i data science.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA