REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Przejmij kontrolę nad sztuczną inteligencją – a AI w firmie. Jak w praktyce stosować przepisy AI Act

Subskrybuj nas na Youtube
Dołącz do ekspertów Dołącz do grona ekspertów
AI act czyli zasady korzystania ze sztucznej inteligencji w firmie
AI act czyli zasady korzystania ze sztucznej inteligencji w firmie
Shutterstock

REKLAMA

REKLAMA

Przepisy regulujące korzystanie ze sztucznej inteligencji przez firmy, tak zwany AI Act, weszły w życie 1 sierpnia 2024 r. Ich celem jest wspieranie biznesu w odpowiedzialnym wdrażaniu oraz rozwoju AI, uwzględniając podnoszenie poziomu bezpieczeństwa obywateli Unii Europejskiej.

– Oznacza to, że przedsiębiorcy wszystkich branż będą mieli nowe obowiązki w zachowaniu transparentności w obszarze AI. Zmiany prawne obejmują wszystkie systemy i aplikacje, które wykorzystują technologię sztucznej inteligencji – tłumaczy Robert Zyskowski, CTO, Grupa Symfonia.

REKLAMA

REKLAMA

Przejmowanie kontroli nad AI w firmie: krok po kroku

Porządkowanie kwestii AI w firmie należy zacząć od rozpoznania i zarejestrowania wszystkich rozwiązań AI, w tym bezpłatnych aplikacji używanych przez pracowników. Po dokonaniu inwentaryzacji konieczne jest przeprowadzenie oceny wykorzystywanych narzędzi pod kątem ryzyka określonego w ustawie AI Act. W dalszej kolejności warto opracować politykę i zasady wykorzystywania sztucznej inteligencji firmie. 

Rozpoznanie – gdzie jest AI w naszych procesach biznesowych?

Jak wyjaśnia ekspert, sztuczna inteligencja to technologia, która nie tylko zajmuje się obliczeniami na ogromnych zbiorach danych, ale także może rozpoznawać ludzką mowę czy stworzone przez człowieka obrazy. AI znajduje swoje zastosowanie między innymi w: 

  • przeglądarkach internetowych i komunikatorach – oferują one funkcje automatycznego tłumaczenia językowego stron internetowych, asystentów rozmów w komunikatorach (odpowiadających automatycznie na pytania); 
  • czat-botach oraz wirtualnych asystentach – obsługujących klientów online (automatyzacja obsługi); 
  • biometrii w systemach IT – która jest używana do uwierzytelniania w procesie logowania (rozpoznaje twarze, siatkówkę oka i odciski palców); 
  • głosowych poleceniach dla systemów i aplikacji biurowych – czyli wszystkich rozwiązaniach, które umożliwiają dyktowanie treści (np. maili) oraz wydawanie komend systemom IT lub aplikacjom; 
  • generowaniu tekstów, prezentacji, grafik, zdjęć – tzw. kreatory kontentu; 
  • automatycznym rozpoznawaniu dokumentów i zarządzaniu nimi w procesie biznesowym, tj, przekazywaniu do odpowiedniego działu/osoby w firmie (identyfikacja i klasyfikacja obrazów); 
  • wykrywaniu cyberzagrożeń – np. podejrzanych, nietypowych transakcji, prób wyłudzeń, włamań (detekcja oszustw na poziomie wykrywania nieprawidłowości w ruchu); 
  • Business Intelligence (wsparcie decyzji biznesowych) – czyli aplikacji analitycznych prognozujących sprzedaż, trendy, personalizujące oferty, promocje i automatyczną obsługę klienta oraz optymalizujące biznes od łańcuchów dostaw po produkcję. 

Ryzyko AI i jego ocena zgodnie z ustawą AI Act

– Ocena ryzyka AI według ustawy AI Act będzie obowiązywać przedsiębiorstwa już za dwa lata, ale warto zaznaczyć, że część regulacji wejdzie w życie wcześniej. Wszystkim systemom IT i rozwiązaniom opartym na sztucznej inteligencji ma zostać nadana kategoria ryzyka minimalnego, specyficznego, wysokiego lub niedopuszczalnego – wyjaśnia Robert Zyskowski.
W pierwszej kolejności – bo za pół roku – przedsiębiorców zaczną obowiązywać przepisy zakazujące korzystania z rozwiązań zaliczanych do kategorii ryzyka niedopuszczalnego. Do tej grupy narzędzi będą należeć m.in. systemy wykorzystujące dane biometryczne, np. do monitorowania działań zatrudnionych w miejscu pracy.

REKLAMA

Do systemów wysokiego ryzyka zostaną zakwalifikowane aplikacje stosowane przy rekrutacjach, ocenach zdolności kredytowej i automatycznym uruchamianiu robotów. Te rozwiązania będą podlegać rygorystycznym wymogom – m.in. konieczności zapewnienia nadzoru człowieka nad robotami.
Ryzyko specyficzne odnosi się do konieczności zapewnienia transparentności wykorzystywania sztucznej inteligencji w firmie. Oznacza to, że firmy będą musiały informować klientów, którzy korzystają z ich systemu, że w interakcji wykorzystywana jest AI – np., że rozmawia z czat-botem (a nie człowiekiem). 

Dalszy ciąg materiału pod wideo

Minimalne ryzyko obejmuje większość systemów i rozwiązań AI wykorzystywanych obecnie w biznesie. Algorytmy AI wspierające biznes w obszarze tworzenia treści czy podejmowania decyzji na bazie danych zebranych wewnętrznie nie będą objęte restrykcjami. Niemniej ta grupa narzędzi wymagać będzie kontroli nad danymi, które przetwarza ta technologia.

Polityka AI w firmie: kontrola nad danymi i zgodność z innymi przepisami 

Każda firma, która korzysta z sztucznej inteligencji, powinna stworzyć odpowiednie procedury uwzględniające kategoryzację ryzyk.
Konieczne jest także wskazanie możliwości wykorzystania tej technologii w kontekście danych przez nią przetwarzanych. Przedsiębiorstwo oraz jego pracownicy musza mieć świadomość, że dane wykorzystywane przez aplikacje AI mogą naruszać prywatność lub stanowić cudzą własność. 

Oto przykład. Pracownicy przygotowują kontent z wykorzystaniem bezpłatnych aplikacji AI – np. prezentację firmową. Aplikacja, z której korzystają, pobiera do tego celu dowolne zdjęcia lub teksty dostępne w zasobach online. Firma nie wie, czy aplikacja AI ma prawa do pobieranych danych – mogą one np. zostać skradzione (wykorzystane bez uwzględnienia prawa autorskiego). 

Ochrona danych osobowych – RODO w kontekście AI

AI działa na podstawie danych, w tym także na podstawie informacji o osobach fizycznych (dane osobowe). Pracując z systemami automatyzacji obsługi klienta, CRMami, BI oraz scoringowymi mamy do czynienia z danymi prawdziwych ludzi, które podlegają szczególnej ochronie (RODO).
– Część aplikacji AI pobiera dane z zasobów internetowych (źródła zewnętrzne), nad którymi organizacje biznesowe nie mają kontroli. Jeśli nasze systemy wymagają takich danych lub firma trenuje na nich swoje algorytmy – rośnie ryzyko naruszenia danych osobowych. Praca z porządkowaniem AI musi więc uwzględniać procedurę wykorzystania informacji wrażliwych w firmie – tłumaczy Robert Zyskowski.

Przepisy AI Act przypominają nam, że stosowanie wszelkich systemów IT, aplikacji czy najnowszych technologii musi odbywać się zgodnie z regułami chroniącym ludzi. Dlatego już teraz warto tworzyć dokumentację i rejestry działań związanych z wykorzystywaniem sztucznej inteligencji.

– Systemowe podejście i etyczne wykorzystanie AI musi także obejmować szkolenia dla pracowników. Pełna kontrola nad AI zagwarantuje bezpieczeństwo prawne i operacyjne zarówno firmie (oraz osobom w niej zatrudnionych), jak i jej klientom – podsumowuje Robert Zyskowski.

Zapisz się na newsletter
Najlepsze artykuły, najpoczytniejsze tematy, zmiany w prawie i porady. Skoncentrowana dawka wiadomości z różnych kategorii: prawo, księgowość, kadry, biznes, nieruchomości, pieniądze, edukacja. Zapisz się na nasz newsletter i bądź zawsze na czasie.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: INFOR

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.

REKLAMA

Sztuczna inteligencja (AI)
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Sztuczna inteligencja w pismach procesowych: sąd wydał wyrok

W ostatnim czasie zapadł wyrok Sądu Pracy w Turynie z 6 września 2025 r., R.G.L. n. 1018/2025, który dotyczący wykorzystania sztucznej inteligencji przy sporządzaniu pism procesowych. To orzeczenie rzuca nowe światło na granice dopuszczalnego wsparcia technologicznego w praktyce prawniczej. Problem staje się coraz bardziej palący a przekroczenie granic dozwolonego użytku AI (Artificial Intelligence) może rodzić poważne konsekwencje. Pewnie z podobnego typu sprawami będziemy mieli niebawem do czynienia w polskich sądach.

Bezpłatny webinar: Automatyzacja finansów – AI i boty nie gryzą

Praktyczne scenariusze dla działów księgowych i finansowych. Sztuczna inteligencja i użycie botów symulujących pracę człowieka – to nie żadna futurystyka czy wstęp do masowych zwolnień. Istnieje cała masa powtarzalnych czynności, w których technologia może wyręczyć Waszych pracowników.

Narodowa sztuczna inteligencja! Po co nam PLLuM i Bielik? [Gość Infor.pl]

W powszechnym odbiorze sztuczna inteligencja często utożsamiana jest z popularnymi czatbotami, takimi jak ChatGPT. Jednak – jak podkreśla wiceminister cyfryzacji Dariusz Standerski – to uproszczenie. Modele językowe to tylko jedna z gałęzi AI, a jej rozwój to efekt dziesięcioleci pracy w obszarach uczenia maszynowego i data science.

Rewolucja w sztucznej inteligencji - ChatGPT GPT-5. Co nowego w najnowszej wersji?

ChatGPT GPT-5 to najnowsza generacja inteligentnego chatbota od OpenAI, która wynosi rozmowy człowieka z AI na zupełnie nowy poziom. Ulepszony model językowy lepiej rozumie kontekst, odpowiada w sposób bardziej naturalny i potrafi łączyć analizę tekstu, obrazu oraz danych w jednym narzędziu. To przełom, który może zmienić sposób, w jaki pracujemy, uczymy się i korzystamy z technologii na co dzień.

REKLAMA

Czy AI osłabia nasz mózg? Wielomiesięczne użytkowanie ChatuGPT może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć

Jak AI wpływa na nasz mózg? Wielomiesięczne użytkowanie ChatuGPT może obniżać aktywność komórek mózgowych, zmniejszać zaangażowanie poznawcze, kreatywność i pogarszać pamięć – ostrzegają autorzy niewielkiego badania, którego wyniki (na razie bez recenzji) opublikowano w serwisie ArXiv.

BBC ostrzega: Google zabije internet. Kto zapłaci twórcom treści, dziennikarzom, skoro roboty nie klikają w reklamy?

Internet powstał z myślą o ludziach, ale jego przyszłość może należeć do maszyn. W nowym paradygmacie to nie my przeglądamy sieć – to sztuczna inteligencja przegląda ją za nas. Taki scenariusz przedstawia dziennikarz BBC Thomas Germain. Czy to koniec swobodnego eksplorowania sieci i początek epoki zunifikowanych informacji, w której algorytm decyduje, co powinniśmy wiedzieć, a co lepiej pominąć?

Sztuczna inteligencja zabierze 14% miejsc pracy. Jak wdrożyć AI w firmie i dlaczego nie można z tym zwlekać?

Automatyzacja i sztuczna inteligencja nie są już przyszłością – stały się teraźniejszością. Firmy stoją przed trudnym wyborem: albo zaczną zmiany już teraz, albo zderzą się z brutalną rzeczywistością, a na adaptację do niej nie będzie czasu. Jak odpowiedzialnie i skutecznie przygotować organizację oraz ludzi do nieuniknionych przemian?

To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie

Jeden z modeli AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

REKLAMA

Dlaczego AI i tworzenie oprogramowania przypominają forex? Technologia w służbie celu – nigdy odwrotnie

Technologia i tworzenie oprogramowania przypominają rynek forex. Są tacy, którzy dużo zyskują – i dzięki technologii wyprzedzają konkurencję o pięć kroków naraz. Ale większość niestety przegrywa.

Dezinformacja bronią XXI wieku. 6 wskazówek jak się przed nią chronić i nie rozpowszechniać „fake newsów”

Manipulowanie informacjami i ingerencja zagraniczna są poważnym zagrożeniem dla społeczeństwa. Fake newsy mogą podważać wiarygodność instytucji i procesów demokratycznych, uniemożliwiając ludziom podejmowanie świadomych decyzji lub zniechęcając ich do głosowania. Komisja Europejska w swoim wzmocnionym komunikacie przedstawia sześć wskazówek, jak wykryć i przeciwdziałać manipulacji informacjami.

REKLAMA