Unia Europejska wprowadziła nowe przepisy dotyczące sztucznej inteligencji. Zgodnie z AI Act, od 2 lutego obowiązują pierwsze przepisy zakazujące używania systemów AI, które stwarzają „nieakceptowalne ryzyko” dla użytkowników. Firmy naruszające te regulacje mogą być obciążone karami wynoszącymi nawet 7% rocznych przychodów lub 35 mln euro, w zależności od tego, która kwota jest wyższa.
AI Act to kompleksowe podejście do ryzyka
AI Act, przyjęty przez Parlament Europejski w marcu ubiegłego roku, to pierwsze tak kompleksowe regulacje dotyczące sztucznej inteligencji. Akt wprowadza cztery poziomy ryzyka:
- Minimalne ryzyko – systemy takie jak filtry antyspamowe, które nie wymagają nadzoru regulacyjnego.
- Ograniczone ryzyko – np. chatboty obsługi klienta, objęte lekkim nadzorem.
- Wysokie ryzyko – systemy AI wykorzystywane w ochronie zdrowia czy edukacji, które podlegają ścisłej kontroli.
- Nieakceptowalne ryzyko – aplikacje zakazane w UE.
Do systemów o nieakceptowalnym ryzyku należą m.in.:
- AI używana do „społecznego punktowania” ludzi, np. na podstawie ich zachowań.
- Systemy manipulujące decyzjami użytkowników w sposób podprogowy lub oszukańczy.
- AI wykorzystująca podatności użytkowników, np. wynikające z wieku czy statusu społecznego.
- Technologie przewidujące popełnienie przestępstw na podstawie wyglądu.
- AI analizująca emocje w miejscach pracy czy szkołach bez uzasadnienia medycznego lub bezpieczeństwa.
- Systemy zbierające dane biometryczne w czasie rzeczywistym w miejscach publicznych, np. do celów ścigania.
Sankcje i wyjątki
Firmy, które naruszają przepisy AI Act, mogą zostać ukarane wysokimi grzywnami. Jednak przepisy przewidują wyjątki – np. organy ścigania mogą używać systemów zbierających dane biometryczne, jeśli celem jest poszukiwanie ofiary porwania lub zapobieganie poważnemu zagrożeniu życia. Każde użycie takich systemów wymaga jednak zgody odpowiednich władz.
Podobne wyjątki obowiązują w przypadku systemów analizujących emocje w szkołach czy miejscach pracy, jeśli ich zastosowanie ma medyczne lub bezpieczeństwa uzasadnienie, np. w terapii.
Wyzwania związane z wdrożeniem
Eksperci wskazują, że choć przepisy są krokiem w stronę odpowiedzialnego rozwoju AI, ich wdrożenie może być wyzwaniem. Kluczowe pytania dotyczą m.in. interakcji AI Act z innymi regulacjami, takimi jak RODO czy NIS2. „Dla organizacji istotne jest, by rozumieć, jak różne przepisy wzajemnie na siebie wpływają” – zauważa Rob Sumroy, ekspert ds. technologii w kancelarii Slaughter and May.
Komisja Europejska planuje opublikowanie dodatkowych wytycznych w 2025 roku. Do tego czasu firmy muszą same interpretować przepisy, co może być problematyczne w kontekście nakładających się obowiązków, takich jak powiadomienia o incydentach.
Kto wyprzedza regulacje?
Choć przepisy AI Act są już obowiązujące, wielu gigantów technologicznych zaczęło przygotowania dużo wcześniej. W ramach tzw. EU AI Pact, podpisanego we wrześniu 2024 roku, ponad 100 firm, w tym Amazon, Google i OpenAI, zobowiązało się do przestrzegania zasad jeszcze przed ich wejściem w życie.
Nie wszyscy jednak dołączyli do inicjatywy – notable Apple, Meta czy francuski startup Mistral wstrzymały się od podpisania paktu. Mimo to firmy te będą musiały dostosować się do obowiązujących przepisów.