REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Rewolucja w prawie AI! Firmy używające AI muszą się dostosować.

Sławomir Biliński
prawnik, dziennikarz, prowadzący szkolenia
Ustawa o systemach SI
Ustawa o systemach SI
AI - GP Chat

REKLAMA

REKLAMA

Długo oczekiwany projekt przepisów o systemach sztucznej inteligencji trafi wkrótce pod obrady Rady Ministrów. Tak powiedział Infor.pl Sekretarz Stanu w Ministerstwie Cyfryzacji. Nastąpiła zatem długo wyczekiwana zmiana w harmonogramie legislacyjnym i w końcu projekt opuścił Ministerstwo Cyfryzacji.

Dlaczego prace nad ustawą o systemach SI tak się przeciągają

Polskie firmy czekają na krajową ustawę o systemach sztucznej inteligencji dłużej, niż pierwotnie zakładano - projekt UC71 miał zacząć porządkować krajowe ramy już w 2025 r., ale prace wyraźnie się wydłużyły. Przyczyn jest kilka. Po pierwsze, sam AI Act to wyjątkowo złożona regulacja, określana jako jeden z najbardziej kompleksowych aktów prawnych dotyczących technologii, więc jego wdrożenie do krajowego porządku prawnego okazało się dużym wyzwaniem. Po drugie, Polska przygotowuje ustawę w warunkach niepewności, bo na poziomie unijnym wciąż brakuje części wytycznych i aktów wykonawczych potrzebnych do praktycznego stosowania przepisów. Po trzecie, pierwotny projekt wymagał istotnych zmian po konsultacjach: przedsiębiorcy krytykowali wcześniejsze rozwiązania jako zbyt anachroniczne, oparte m.in. na papierowych kontrolach i fizycznym zabezpieczaniu dokumentów, więc procedury trzeba było przepisać na bardziej nowoczesny, zdalny model. Do tego dochodzi zwykła ścieżka legislacyjna — analiza projektu przez Rządowe Centrum Legislacji i kolejne etapy rządowe oraz ogólnie powolne i mało przewidywalne tempo prac regulacyjnych w Unii Europejskiej. W efekcie ustawodawcy musieli jednocześnie reagować na szybki rozwój technologii i dopracowywać przepisy w otoczeniu, które samo jeszcze nie było w pełni ustalone.

REKLAMA

REKLAMA

Kiedy i co wejdzie w życie

O zmianach w kalendarzu prac  nad projektem o systemach SI wypowiedział się w tym tygodniu dla infor.pl Sekretarz stanu w Ministerstwie Cyfryzacji minister Dariusz Standerski:

"W piątek wieczorem wysłałem ustawę o systemach sztucznej inteligencji do rozpatrzenia przez Radę Ministrów. W związku z czym można się spodziewać, że w następnych tygodniach Rada Ministrów przyjmie projekt o systemach sztucznej inteligencji. Rządowe Centrum Legislacji oczywiście musi przeanalizować cały projekt i przygotować odpowiednie rekomendacje. Natomiast myślę, że pod koniec marca, na początku kwietnia ten projekt zostanie już przyjęty przez Radę Ministrów i zostanie wysłany do Sejmu. W związku z czym druga połowa roku to mam już nadzieję wejście w życie wejście w życie przepisów z tego względu, że czekamy na 2 sierpnia, gdy między innymi wchodzi w życie część przepisów o systemach AI wysokiego ryzyka.

Dlatego kończymy już te prace legislacyjne na poziomie rządowym. Będę również w stałym kontakcie z komisją sejmową, żeby szybko i sprawnie, tak jak często w komisji cyfryzacji, przeprowadzić procesy legislacyjne i już stosować między innymi tak ważne przepisy jak dotyczące piaskownicy regulacyjnej, czyli możliwości testowania rozwiązań przez przedsiębiorców zanim wejdą na rynek."

Dariusz Standerski, sekretarz stanu w Ministerstwie Cyfryzacji, fot. Robert Wróblewski/Materiały prasowe

Dariusz Standerski, sekretarz stanu w Ministerstwie Cyfryzacji, fot. Robert Wróblewski/Materiały prasowe

Materiały prasowe

Datę 2 sierpnia 2026 r. warto zapamiętać. To termin, w którym unijne rozporządzenie nakłada pełne obowiązki na dostawców i użytkowników systemów AI sklasyfikowanych jako wysokiego ryzyka. I to niezależnie od tego, czy polska ustawa zostanie wcześniej uchwalona, czy nie. Unijny AI Act obowiązuje bowiem bezpośrednio; krajowe przepisy mają stworzyć jedynie infrastrukturę instytucjonalną niezbędną do jego egzekwowania.

REKLAMA

Po co ta ustawa

Projekt ustawy o systemach SI powołuje do życia nowy organ nadzoru Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). To nie będzie ciało doradcze: komisja uzyska prawo wglądu w dokumentację techniczną, kod źródłowy i zestawy danych treningowych systemów AI, a jej decyzje będą wiążące. Polska ustawa tworzy też dwa instrumenty wsparcia dla biznesu:

Dalszy ciąg materiału pod wideo
  • opinie indywidualne (koszt wniosku: 150 zł, termin odpowiedzi: 30 dni) oraz
  • piaskownice regulacyjne — wydzielone środowiska testowe, w których firmy, zwłaszcza z sektora MŚP, będą mogły rozwijać innowacyjne rozwiązania bez ryzyka natychmiastowych sankcji. 

Udział w "piaskownicy regulacyjnej  ma być dla małych i średnich przedsiębiorstw nieodpłatny. Ministerstwo Cyfryzacji podkreśla, że właśnie to narzędzie jest dla rządu priorytetem: zależy mu, by przepisy dotyczące piaskownicy zaczęły obowiązywać jak najszybciej po uchwaleniu ustawy.

Ustawa nie tylko dla IT

Ustawa o systemach SI i AI Act nie są dokumentami wyłącznie dla branży IT. Ze względu na horyzontalny charakter technologii jej skutki dotkną praktycznie każdego sektora. Banki i ubezpieczyciele korzystający z algorytmów scoringowych, firmy HR sięgające po narzędzia do analizy CV, placówki medyczne używające oprogramowania diagnostycznego — wszyscy oni wchodzą od sierpnia 2026 r. w obszar regulacji wysokiego ryzyka. Nowa ustawa o systemach sztucznej inteligencji ma dać takim podmiotom nieco większą pewność prawną co do tego, jak korzystać z AI w sposób dozwolony i zgodny z przepisami. Kary za naruszenie obowiązków mogą sięgać 15 mln euro lub 3 proc. rocznego światowego obrotu, a za stosowanie systemów zakazanych - nawet 35 mln euro lub 7 proc. obrotu. Ta część przepisów będzie obowiązywać niezależnie od losów tego projektu w Sejmie, bo rozporządzenia unijne takie jak AI Act obowiązują bezpośrednio. 

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Sztuczna inteligencja (AI)
AI też musi być odpowiedzialna. Co sztuczna inteligencja ma wspólnego z ESG?

ESG już dawno przestało być hasłem zastrzeżonym dla dużych spółek i działów sustainability. Dr Marcin Huczkowski, partner w kancelarii Fieldfisher Poland, wyjaśnia, dlaczego wdrażając AI nie można pominąć pytań o ślad węglowy, uprzedzenia zakodowane w algorytmach, odpowiedzialność za błędną poradę prawną czy prawa pracowników dotkniętych automatyzacją. I pokazuje, że te tematy mają już bardzo konkretny wymiar prawny.

AI w biznesie – praktyczne zastosowania w księgowości, kadrach i innych działach firmy

Sztuczna inteligencja coraz mocniej wchodzi do firmowej codzienności. Już nie tylko wspiera pisanie tekstów czy analizę danych, ale realnie usprawnia obieg dokumentów i całe procesy biznesowe. Narzędzia takie jak np. AMODIT Copilot, AskAI i AI OCR pomagają automatyzować zadania w finansach, HR, prawie, zakupach i IT, odciążając zespoły i przyspieszając pracę organizacji.

AI wychodzi już z centrów danych. Roboty z neuromorficznymi chipami odbierają bodźce w czasie rzeczywistym jak ludzki mózg i zmysły

Do 2028 r. globalne wydatki na infrastrukturę brzegową mają wzrosnąć z 261 mld do 380 mld dolarów, co jest konsekwencją zwiększającego się zapotrzebowania na inteligentne i energooszczędne rozwiązania do przetwarzania danych. Pomocne w zaspokojeniu tego wyzwania może być neuromorficzne podejście do obliczeń, które zaczyna „wypychać” sztuczną inteligencję poza centra danych, umożliwiając działanie jej mechanizmów bliżej źródeł informacji. Znajduje ono już zastosowanie w robotyce, medycynie, modelowaniu klimatu czy cyberbezpieczeństwie. Jednak, jak wskazują eksperci Vertiv, za rozwojem takich rozwiązań wciąż nie nadąża infrastruktura (zarówno sprzętowa, jak i programowa) potrzebna do ich wdrażania na większą skalę.

AI w rekrutacji pod szczególnym nadzorem. HR musi uważać na nowe przepisy UE

Sztuczna inteligencja weszła do rekrutacji szybciej niż większość firm zdążyła przygotować zasady jej używania. Najpierw były proste narzędzia do sortowania aplikacji. Potem systemy, które analizują CV, porównują kandydatów, sugerują shortlisty albo pomagają ocenić dopasowanie do stanowiska. Dziś w wielu organizacjach AI działa już nie jako ciekawostka, ale jako element codziennej pracy HR. I właśnie dlatego rekrutacja jest jednym z tych obszarów, na które AI Act patrzy szczególnie uważnie.

REKLAMA

Rewolucja w prawie AI! Firmy używające AI muszą się dostosować.

Długo oczekiwany projekt przepisów o systemach sztucznej inteligencji trafi wkrótce pod obrady Rady Ministrów. Tak powiedział Infor.pl Sekretarz Stanu w Ministerstwie Cyfryzacji. Nastąpiła zatem długo wyczekiwana zmiana w harmonogramie legislacyjnym i w końcu projekt opuścił Ministerstwo Cyfryzacji.

Test sztucznej inteligencji. Wiadomo, jak wypadły polskie modele AI

W pierwszym „polskim” teście dużych modeli językowych krajowe systemy AI, Bielik i PLLuM wypadły znacznie gorzej od globalnych narzędzi.

Prywatność i wizerunek a AI. Jak chronić dane w czasach nowych technologii?

Rozwój cyfrowy niesie za sobą szereg wyzwań związanych z ochroną naszych danych. Z czym wiąże się nieuprawnione wykorzystanie wizerunku? Jakie praktyczne problemy może stwarzać dla prywatności rozwój sztucznej inteligencji?

Czy zasady zawarte w Konstytucji RP chronią jednostkę przed stosowaniem sztucznej inteligencji?

Wprowadzenie SI do dziedzin życia, ma możliwości poprawy bezpieczeństwa i jakości życia jednostki. Jednak istniejące ryzyko naruszenia prywatności i bezpieczeństwa danych osobowych, zmusza do zapewnienia zgodności z prawem, przejrzystości działania systemów AI oraz ochrony wrażliwych danych, takich jak dane biometryczne.

REKLAMA

Sztuczna inteligencja w pismach procesowych: sąd wydał wyrok

W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.

Bezpłatny webinar: Automatyzacja finansów – AI i boty nie gryzą

Praktyczne scenariusze dla działów księgowych i finansowych. Sztuczna inteligencja i użycie botów symulujących pracę człowieka – to nie żadna futurystyka czy wstęp do masowych zwolnień. Istnieje cała masa powtarzalnych czynności, w których technologia może wyręczyć Waszych pracowników.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

REKLAMA