Unia Europejska opublikowała swój pierwszy projekt Kodeksu Postępowania dla modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Dokument ten, którego ostateczna wersja ma być gotowa w maju przyszłego roku, przedstawia wytyczne mające na celu zarządzanie ryzykiem związanym z zaawansowanymi modelami AI i zapewnienie przestrzegania przepisów, które weszły w życie 1 sierpnia w ramach ustawy AI Act. Projekt ten ma za zadanie doprecyzować wymagania dla rozwijających się modeli GPAI, takich jak te wykorzystywane przez OpenAI, Google czy Meta, i umożliwić zainteresowanym stronom przesyłanie opinii przed ostatecznym ustaleniem zasad.
Na czym skupia się nowy kodeks?
Projekt Kodeksu obejmuje cztery kluczowe obszary: przejrzystość, zgodność z prawami autorskimi, ocenę ryzyka oraz techniczne i zarządcze łagodzenie ryzyka. W dokumencie znajdziemy zapisy nakładające na twórców AI obowiązek ujawnienia informacji o użytych technologiach oraz crawlerach internetowych, które zostały użyte do trenowania modeli. Ten wymóg ma szczególne znaczenie w kontekście praw autorskich oraz ochrony twórców i ich pracy.
Ocena ryzyka i ramy bezpieczeństwa
Wytyczne w zakresie oceny ryzyka koncentrują się na przeciwdziałaniu zagrożeniom, takim jak cyberprzestępstwa, dyskryminacja czy utrata kontroli nad modelem AI. Unia Europejska wymaga od firm stosowania tzw. Ramy Bezpieczeństwa i Ochrony (Safety and Security Framework, SSF), które mają wspomagać kontrolę i redukcję potencjalnych zagrożeń w proporcji do ich wagi. W praktyce oznacza to, że każda firma musi wprowadzić systemy ochrony danych modelu, a także przeprowadzać regularne kontrole skuteczności wdrożonych zabezpieczeń.
Nadzór i odpowiedzialność w firmach AI
Istotnym elementem nowego kodeksu są również wymogi dotyczące zarządzania ryzykiem i odpowiedzialności po stronie firm, które tworzą AI. Unia Europejska postuluje, aby firmy AI były zobowiązane do systematycznego monitorowania ryzyka i angażowania zewnętrznych ekspertów, kiedy to konieczne. Dbałość o odpowiedzialność ma pomóc w uniknięciu sytuacji, w których AI mogłaby przekształcić się w niekontrolowane narzędzie.
Sankcje za nieprzestrzeganie przepisów – wysokie kary finansowe
Firmy, które nie dostosują się do nowo wprowadzonych zasad, mogą spodziewać się surowych kar. Maksymalna kara wynosić może aż 35 milionów euro lub siedem procent globalnych rocznych dochodów firmy, zależnie od tego, która kwota jest wyższa. Tak wysokie sankcje mają na celu zapewnienie przestrzegania przepisów i odpowiedzialne podejście do zarządzania zaawansowanymi modelami AI.
Projekt jest obecnie otwarty na uwagi od zainteresowanych stron, które mogą je składać na dedykowanej platformie Futurium do 28 listopada. Ostateczna wersja regulacji ma zostać zatwierdzona 1 maja 2025 roku.