Pomyśl o AI Act jako o pierwszym na świecie obszernym zbiorze zasad, które Unia Europejska wprowadziła, żeby uporządkować kwestię sztucznej inteligencji. Weszło w życie 1 sierpnia 2024 roku i to naprawdę przełom. Chodzi o to, żebyśmy mieli jasne ramy prawne dla tej szybko rozwijającej się technologii, i to nie tylko w Europie, ale też globalnie. Główny cel? Zapewnić nam wszystkim bezpieczeństwo, żeby wszystko działało etycznie i żeby nasze prawa były chronione, bo przecież sztuczna inteligencja rozwija się w zawrotnym tempie. Chodzi o stworzenie takiego środowiska, w którym rozwój AI jest bezpieczny, możemy mu ufać, a jednocześnie szanuje się podstawowe wartości, które wyznajemy w Europie.
Jakie są główne cele i założenia AI Act?
Chodzi głównie o to, żebyśmy mogli bezpiecznie i etycznie korzystać z systemów sztucznej inteligencji, żeby nasze prawa były nienaruszone, a jednocześnie żeby nikt nie blokował innowacji. Chcemy chronić Europejczyków przed tym, co w AI może być złe – na przykład przed dyskryminacją albo naruszeniem naszych fundamentalnych praw. Ale jednocześnie zależy nam na tym, żeby technologia szła naprzód, żeby powstawały nowe, fajne rozwiązania AI, które nam wszystkim pomogą. Ważne jest też, żebyśmy wiedzieli, co się dzieje – chodzi o przejrzystość i kontrolę. Dlatego na przykład treści stworzone przez AI, takie jak te z ChatGPT, muszą być odpowiednio oznaczone. No i w przypadku systemów, które stwarzają większe ryzyko, musimy mieć pewność, że człowiek jest w stanie je nadzorować.
Kto podlega AI Act i jak klasyfikuje się systemy AI według poziomów ryzyka?
Jeśli jesteś w Unii Europejskiej, to AI Act Cię dotyczy. Ale nie tylko! Jeśli firma spoza UE używa systemów AI na naszym terenie, też musi się do tego dostosować. Podstawa tego rozporządzenia to podział systemów AI na kategorie w zależności od tego, jakie potencjalne ryzyko stwarzają. Mamy cztery główne grupy: niedopuszczalne ryzyko (czyli coś, czego nie wolno), wysokie ryzyko, ograniczone ryzyko i wreszcie minimalne ryzyko. Co ważne, decyduje tu głównie to, do czego ten system AI jest używany, a nie sama technologia, która za nim stoi. Systemy o wysokim ryzyku, chociaż dopuszczone do użytku, wiążą się z surowymi wymogami dla tych, którzy je tworzą i używają.
Niedopuszczalne ryzyko (zakazane systemy AI)
Te systemy AI są po prostu zakazane na terenie Unii Europejskiej. Dlaczego? Bo mogą mocno zaszkodzić naszym prawom podstawowym i bezpieczeństwu. Chodzi tu na przykład o techniki manipulacji, systemy oceny społecznej (takie jak „social scoring” stosowane przez państwa), przewidywanie przestępstw na podstawie profilowania czy skanowanie naszych danych biometrycznych bez celu, żeby potem tworzyć bazy danych do rozpoznawania twarzy. Te przepisy wchodzą w życie od 2 lutego 2025 roku.
Wysokie ryzyko
Tutaj mamy do czynienia z systemami AI, które mogą stanowić realne zagrożenie dla naszego zdrowia, bezpieczeństwa albo podstawowych praw. Dotyczy to na przykład systemów, które są częścią produktów takich jak urządzenia medyczne, samochody czy windy. Do tej grupy zaliczają się też te systemy, które zarządzają infrastrukturą krytyczną, a także te wykorzystywane w edukacji, szkoleniach zawodowych, rekrutacji czy zarządzaniu pracownikami. Te przepisy zaczną obowiązywać od 2 sierpnia 2026 roku.
Ograniczone ryzyko
Jeśli chodzi o systemy AI związane z ograniczonym ryzykiem, to głównie chodzi o transparentność. Na przykład chatboty muszą informować użytkownika, że rozmawia z maszyną. Podobnie systemy, które tworzą sztuczne treści – takie jak deepfakes (czyli przerobione filmy lub zdjęcia) – muszą być wyraźnie oznaczone jako stworzone przez AI.
Minimalne ryzyko
To chyba największa grupa. Znajdują się tu systemy AI, które nie pasują do żadnej z powyższych kategorii. Dla nich nie ma specjalnych, prawnych obowiązków wynikających z AI Act. Działamy tu głównie w oparciu o dobrowolne kodeksy postępowania i samoregulację.
Jakie są obowiązki i podział ról w ramach AI Act?
AI Act nakłada różne obowiązki na tych, którzy działają na rynku sztucznej inteligencji. Wszystko zależy od ich roli i tego, jakie ryzyko wiąże się z konkretnym systemem AI. Główni gracze to dostawcy (tworzą AI lub wprowadzają ją na rynek) oraz użytkownicy (stosują AI), ale też importerzy i dystrybutorzy. Szczególne wymogi dotyczą systemów o wysokim ryzyku i modeli AI ogólnego przeznaczenia (GPAI).
Kluczowe obowiązki dostawców systemów AI wysokiego ryzyka
Jeśli tworzysz systemy AI o wysokim ryzyku, masz sporo na głowie. Musisz zadbać o to, żeby:
- Zawsze istniała możliwość nadzoru człowieka nad systemem.
- Był wdrożony system zarządzania jakością, czyli masz sensowne polityki i procedury.
- System posiadał oznakowanie CE, które potwierdza, że spełnia wymogi.
- Była dostępna szczegółowa dokumentacja techniczna opisująca, jak wszystko działa.
- Została wystawiona deklaracja zgodności UE.
- Przeprowadzono odpowiednią procedurę oceny zgodności.
Oprócz tego, musisz zarejestrować swoje systemy wysokiego ryzyka w odpowiedniej bazie danych prowadzonej przez Komisję Europejską. Po wprowadzeniu systemu na rynek, musisz go monitorować i zbierać dane o tym, jak działa. Dostawcy mają też obowiązek udostępniać dokumentację i dowody zgodności na żądanie organów nadzorczych.
Obowiązki dla modeli AI ogólnego przeznaczenia (GPAI)
Dostawcy modeli AI ogólnego przeznaczenia (GPAI) – pamiętaj, że te przepisy wchodzą w życie od 2 sierpnia 2025 roku – mają swoje specyficzne zobowiązania. Muszą przygotować obszerną dokumentację techniczną opisującą model i jego możliwości. Ważne jest też, żeby przekazywać odpowiednie informacje integratorom systemów AI, którzy wykorzystują te modele do tworzenia własnych aplikacji. Dostawcy GPAI muszą też mieć politykę zgodności z prawem autorskim. A jeśli model stwarza ryzyko systemowe, muszą przestrzegać odpowiednich kodeksów praktyk lub norm zharmonizowanych.
Obowiązki importerów, dystrybutorów i podmiotów stosujących (użytkowników)
Importerzy (sprowadzają systemy AI spoza UE) i dystrybutorzy (udostępniają je na rynku UE) mają ważne zadanie: muszą sprawdzić, czy systemy, które sprzedają, mają oznakowanie CE, dokumentację techniczną i deklarację zgodności UE. Muszą też upewnić się, że przeprowadzono ocenę zgodności. Jeśli coś jest niezgodne albo system stwarza ryzyko, importerzy i dystrybutorzy muszą współpracować z organami nadzoru i podejmować działania naprawcze. Czasem, jeśli np. nadają systemowi własną markę lub go modyfikują, przejmują obowiązki dostawcy. Użytkownicy systemów AI z kolei muszą zapewnić odpowiedni nadzór człowieka, zwłaszcza w przypadku systemów wysokiego ryzyka.
Jaki jest harmonogram wdrożenia AI Act i jakie kary grożą za nieprzestrzeganie przepisów?
Wdrożenie AI Act odbywa się etapami, żeby dać firmom czas na dostosowanie się. Pełne przepisy wejdą w życie stopniowo, a system kar ma być mocną motywacją, żeby się do nich stosować.
Fazy wdrożenia przepisów
- Luty 2025: Wprowadzenie zakazów dotyczących systemów AI o niedopuszczalnym ryzyku. Dotyczy to m.in. technik manipulacji, social scoringu czy niekontrolowanego skrobania danych biometrycznych.
- Sierpień 2025: Wejście w życie wymogów dla modeli AI ogólnego przeznaczenia (GPAI), w tym obowiązków dokumentacyjnych i informacyjnych.
- Sierpień 2026: Początek obowiązywania większości przepisów, w tym tych najbardziej rygorystycznych dla systemów sztucznej inteligencji wysokiego ryzyka. Dotyczy to wielu sektorów, od medycyny po zatrudnienie.
- Pełna implementacja do 2027 roku: Niektóre bardziej skomplikowane wymogi, na przykład te dotyczące monitorowania po wprowadzeniu na rynek, mogą potrwać dłużej, nawet do 2027 roku, w zależności od specyfiki systemu.
System kar za nieprzestrzeganie AI Act
Jeśli nie będziesz przestrzegać AI Act, grożą Ci wysokie kary finansowe. Ich wysokość zależy od rodzaju wykroczenia i obrotu firmy. Sąd i organy nadzorcze będą pilnować przestrzegania przepisów.
- Zakazane praktyki: Za stosowanie systemów AI o niedopuszczalnym ryzyku można zapłacić najwięcej – do 35 milionów euro albo 7% całkowitego rocznego światowego obrotu firmy z poprzedniego roku.
- Inne naruszenia: Jeśli na przykład system wysokiego ryzyka nie spełnia wymogów albo brakuje odpowiedniej dokumentacji, kary mogą wynieść do 15 milionów euro lub 3% światowego obrotu firmy.
- Zależność od obrotu: Warto pamiętać, że kary oblicza się jako wyższą z dwóch kwot – albo określoną sumę pieniędzy, albo procent obrotu. Ma to sprawić, że kary będą miały realny wpływ na firmy każdej wielkości.
Żeby to wszystko skutecznie egzekwować, potrzebujemy kompetentnych organów nadzorczych, zarówno na poziomie krajowym, jak i europejskim.
Jaki jest potencjalny wpływ AI Act na innowacje w UE?
Wpływ AI Act na innowacje w Unii Europejskiej to temat, który budzi sporo dyskusji. Z jednej strony, rozporządzenie może podnieść koszty i skomplikować wiele spraw, co potencjalnie może spowolnić rozwój technologii. Ale z drugiej strony, ma promować rozwój „zaufanej AI” i budować większe zaufanie do tej technologii, co może otworzyć nowe możliwości rynkowe.
Potencjalne negatywne skutki dla innowacji
- Wzrost kosztów i złożoności: Wdrożenie AI Act wymaga od firm sporych inwestycji w audyty, dokumentację techniczną, systemy zarządzania jakością i ogólnie w zgodność z przepisami. Szczególnie trudne może to być dla małych i średnich przedsiębiorstw (MŚP), które mają ograniczone zasoby.
- Ryzyko spowolnienia tempa rozwoju: Surowe przepisy, zwłaszcza zakazy dotyczące praktyk o niedopuszczalnym ryzyku, mogą zniechęcać do eksplorowania nowych obszarów AI. Europa może przez to rozwijać się wolniej w porównaniu do regionów o mniej restrykcyjnych regulacjach, takich jak Stany Zjednoczone czy Azja.
- Konkurencyjność: Nadmierne obciążenia regulacyjne mogą wpłynąć na konkurencyjność europejskich firm AI na rynku globalnym.
Potencjalne pozytywne skutki dla innowacji
- Promocja zaufanej i etycznej AI: AI Act stawia na tworzenie systemów AI, które są bezpieczne, godne zaufania i szanują prawa człowieka. To promuje rozwój technologii, które są akceptowalne społecznie i budzą zaufanie konsumentów oraz inwestorów.
- Ustandaryzowanie rynku: Jasne zasady gry i zdefiniowane poziomy ryzyka ułatwiają poruszanie się po rynku i mogą sprawić, że firmy, które skutecznie wdrożą zgodne z prawem rozwiązania AI, zyskają przewagę konkurencyjną.
- Nowe nisze rynkowe: Potrzeba zgodności z AI Act może stworzyć zapotrzebowanie na usługi związane z audytem, certyfikacją i doradztwem w zakresie AI, otwierając nowe możliwości biznesowe.
Unia Europejska próbuje znaleźć złoty środek między potrzebą regulacji a wspieraniem innowacji. Chodzi o „odpowiedzialną innowację”. Zobaczymy, jak skuteczne będzie to podejście, bo wiele zależy od elastyczności wdrożenia i tego, jak szybko przepisy będą potrafiły dostosować się do szybko zmieniającego się krajobrazu technologicznego.
Co oznacza AI Act dla przyszłości AI w Europie?
AI Act to ważny krok w globalnej regulacji sztucznej inteligencji, a Unia Europejska chce być liderem w dziedzinie „zaufanej AI”. Rozporządzenie ma stworzyć spójne ramy prawne dla rozwoju i stosowania AI, które będą chronić obywateli, promować innowacje i budować zaufanie do tej technologii. Największe wyzwania to teraz zapewnienie elastyczności przepisów w obliczu szybkiego postępu technologicznego, skuteczne wspieranie innowacji (zwłaszcza dla mniejszych firm) i efektywne egzekwowanie wprowadzonych regulacji. Ciągłe monitorowanie i gotowość do dostosowania przepisów do ewoluujących możliwości i zagrożeń związanych z AI będą kluczowe dla sukcesu. Przyszłość AI in Europie będzie zależeć od tego, jak skutecznie uda się pogodzić innowacyjność z odpowiedzialnością. To pokazuje, jak ważna jest rola Unii Europejskiej w kształtowaniu globalnych standardów.
FAQ – najczęściej zadawane pytania o AI Act
Czy AI Act dotyczy tylko firm z Unii Europejskiej?
Nie, AI Act ma zastosowanie również do firm spoza UE, które oferują lub wykorzystują systemy AI na rynku europejskim. Oznacza to, że globalne firmy technologiczne muszą dostosować swoje produkty i usługi do wymogów unijnego rozporządzenia, jeśli chcą działać w Unii Europejskiej.
Jakie są główne różnice między systemami AI wysokiego ryzyka a systemami ograniczonego ryzyka?
Systemy AI wysokiego ryzyka to te, które mogą mieć znaczący negatywny wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe osób, dlatego podlegają one najbardziej rygorystycznym wymogom, takim jak ocena zgodności, nadzór człowieka i rejestracja. Systemy ograniczonego ryzyka wymagają głównie transparentności, polegającej na informowaniu użytkowników o tym, że wchodzą w interakcję z AI lub że treść została wygenerowana przez AI.
Czy AI Act zakazuje rozwoju AI w Europie?
Nie, celem AI Act nie jest hamowanie rozwoju sztucznej inteligencji, lecz wspieranie go w sposób bezpieczny, etyczny i zgodny z wartościami europejskimi. Rozporządzenie wprowadza regulacje, które mają na celu minimalizację ryzyka, jednocześnie tworząc ramki dla innowacji i budowania zaufania do technologii AI.
Kiedy dokładnie wchodzą w życie kluczowe przepisy AI Act?
Poszczególne przepisy AI Act wchodzą w życie w różnych terminach. Zakazy dotyczące praktyk o niedopuszczalnym ryzyku obowiązują od lutego 2025 roku. Wymogi dla modeli AI ogólnego przeznaczenia (GPAI) zaczną obowiązywać od sierpnia 2025 roku. Natomiast większość przepisów, w tym te dotyczące systemów wysokiego ryzyka, zacznie obowiązywać od 2 sierpnia 2026 roku.
Co się stanie, jeśli moja firma nie zastosuje się do AI Act?
Nieprzestrzeganie przepisów AI Act może skutkować nałożeniem wysokich kar finansowych. W zależności od rodzaju naruszenia, kary mogą wynieść do 35 milionów euro lub 7% rocznego światowego obrotu firmy, co stanowi znaczące obciążenie finansowe i może wpłynąć na dalsze funkcjonowanie przedsiębiorstwa.
Poszukujesz agencji SEO w celu wypozycjonowania swojego serwisu? Skontaktujmy się!
Paweł Cengiel
Cechuję się holistycznym podejściem do SEO, tworzę i wdrażam kompleksowe strategie, które odpowiadają na konkretne potrzeby biznesowe. W pracy stawiam na SEO oparte na danych (Data-Driven SEO), jakość i odpowiedzialność. Największą satysfakcję daje mi dobrze wykonane zadanie i widoczny postęp – to jest mój „drive”.
Wykorzystuję narzędzia oparte na sztucznej inteligencji w procesie analizy, planowania i optymalizacji działań SEO. Z każdym dniem AI wspiera mnie w coraz większej liczbie wykonywanych czynności i tym samym zwiększa moją skuteczność.