
W obliczu dynamicznego rozwoju sektora AI, który przynosi zarówno zyski, jak i wyzwania etyczne, Unia Europejska podejmuje inicjatywę wprowadzając przełomową ustawę. Ten nowy akt prawny, segmentując aplikacje AI według potencjalnego ryzyka, dąży do zapewnienia odpowiednich regulacji, akcentując priorytet traktowania człowieka w erze technologicznej rewolucji.
"To nie koniec, ale początek nowej ery zarządzania technologią," mówi eurodeputowany Dragos Tudorache, podkreślając liderowanie UE w globalnym adresowaniu wyzwań AI.
Unia Europejska przyjmuje przełomową ustawę o sztucznej inteligencji
W zeszłą środę (23/03/2024) prawodawcy Unii Europejskiej zatwierdzili przygotowaną latami ustawę o sztucznej inteligencji, która obowiązywać będzie w bloku 27 krajów.
Część przepisów wejdzie w życie jeszcze w tym roku. Przewiduje się, że prawo dotyczące sztucznej inteligencji posłuży jako uniwersalne wytyczne dla innych państw, które starają się uregulować dynamicznie postępującą technologię.
Cztery poziomy ryzyka w regulacjach AI UE
Ustawa o AI w UE kieruje się zasadą proporcjonalności ryzyka: im większe ryzyko wiąże się z aplikacją AI, tym surowsze są wymogi. Większość systemów AI, takich jak filtry antyspamowe, uznaje się za nisko ryzykowne i ich regulacja jest dobrowolna. Aplikacje wysokiego ryzyka, np. w medycynie lub krytycznej infrastrukturze, muszą spełniać ścisłe kryteria, takie jak używanie danych wysokiej jakości. Pewne zastosowania AI, uznawane za nieakceptowalnie ryzykowne, jak systemy oceny społecznej czy predykcyjne patrole policyjne, są zakazane. Zakazy dotyczą też użycia biometrycznego rozpoznawania twarzy przez policję w przestrzeni publicznej, z wyjątkami dla ciężkich przestępstw.

Wymagania dla aplikacji AI według nowych przepisów
- - Zabronione: jednoznacznie określone jako nielegalne w myśl przyjętych przepisów prawa.
- - Ocena zgodności ymaga, aby aplikacje AI przeszły przez proces weryfikacji, potwierdzający, że spełniają określone normy bezpieczeństwa i etyki.
- - Przejrzystość oznacza, że użytkownicy muszą być informowani o tym, jak działają te aplikacje, jakie dane są używane i w jakim celu, co ma na celu zwiększenie zaufania i zrozumienia technologii AI.
- - Dla aplikacji z pierwszego poziomu ryzyka, wymogi są minimalne i skupiają się głównie na podstawowych zasadach etycznych w oparciu o bezpieczeństwo.
Generatywna sztuczna inteligencja w prawie Unii Europejskiej
Początkowe wersje ustawy UE koncentrowały się na AI do specyficznych zadań, np. analizie CV. Jednak dynamiczny rozwój modeli generatywnej sztucznej inteligencji, jak ChatGPT, zmusił decydentów do aktualizacji przepisów.
Nowe regulacje dotyczące generatywnych modeli AI
Wprowadzono zasady dla generatywnych modeli AI, takich jak chatboty, tworzące realistyczne treści. Twórcy, w tym start-upy i giganci jak OpenAI czy Google, muszą ujawniać źródła danych (teksty, zdjęcia, filmy) używane do trenowania AI oraz przestrzegać praw autorskich. Treści AI imitujące realne osoby, miejsca, czy wydarzenia muszą być jasno oznaczone jako manipulowane.
Identyfikacja ryzyka systemowego w dużych modelach AI
Szczególną uwagę skupiono na dużych modelach AI, które mogą stanowić "ryzyko systemowe", włączając w to GPT-4 OpenAI czy Gemini Google. UE obawia się możliwości poważnych wypadków lub cyberataków oraz rozpowszechniania szkodliwych stereotypów przez te systemy.
Odpowiedzialność i bezpieczeństwo w kontekście sztucznej inteligencji
Dostawcy systemów muszą oceniać i minimalizować ryzyko, raportować poważne incydenty, wprowadzać środki cyberbezpieczeństwa oraz informować o zużyciu energii przez swoje modele. Te przepisy mają na celu nadążanie za postępem w AI, zabezpieczając społeczeństwo przed potencjalnymi zagrożeniami.
Globalny wpływ europejskich regulacji dotyczących AI
Rola Unii Europejskiej w regulacji sztucznej inteligencji
Europa, proponując regulacje AI już w 2019, stała się pionierem w globalnej regulacji nowych technologii. Bruksela wyróżnia się w zakresie wprowadzania norm dla szybko rozwijających się sektorów, inspirując inne kraje do podobnych działań.
Globalne inicjatywy w zakresie regulacji AI
- - W USA, prezydent Joe Biden wydał obszerne rozporządzenie w sprawie AI, mające prowadzić do międzynarodowych standardów i przepisów. Co najmniej siedem stanów w USA pracuje nad własnymi regulacjami AI, co świadczy o rosnącym zainteresowaniu uregulowaniem tej dziedziny.
- - Prezydent Chin, Xi Jinping, przedstawił inicjatywę Globalnego Zarządzania AI, promującą sprawiedliwe i bezpieczne wykorzystanie sztucznej inteligencji. Chiny wprowadziły również "środki tymczasowe" regulujące AI generującą teksty, obrazy, dźwięki i wideo, skierowane do obywateli kraju.
- - Równocześnie, na arenie międzynarodowej, od Brazylii po Japonię, oraz organizacje globalne jak ONZ czy G7, podejmują działania na rzecz tworzenia ram ochronnych dla AI, pokazując globalny zasięg i znaczenie inicjatyw regulacyjnych w tej dziedzinie.
Europejska inicjatywa regulacyjna ma zatem znaczący wpływ globalny, pobudzając inne kraje do refleksji nad własnymi przepisami dotyczącymi sztucznej inteligencji.
Termin wejścia w życie nowych przepisów dotyczących AI
Oczekuje się, że ustawa o AI zostanie formalnie przyjęta w maju lub czerwcu, po finalizacji procedur, w tym zatwierdzeniu przez państwa UE. Przepisy zaczną obowiązywać stopniowo, z początkowym zakazem niektórych systemów AI już sześć miesięcy po wejściu w życie ustawy.
Regulacje dla ogólnego użytku AI, jak chatboty, zaczną działać rok po implementacji ustawy, z pełnym zestawem zasad dotyczących AI wysokiego ryzyka do połowy 2026. Kraje UE stworzą organy nadzorcze dla skarg związanych z AI, a Bruksela utworzy Biuro AI do egzekwowania przepisów.
Skutki naruszenia przepisów o sztucznej inteligencji
Za naruszenie mogą grozić kary do 35 milionów euro lub 7% globalnych przychodów firmy. Włoski poseł Brando Benifei wskazuje, że przepisy mogą być rozszerzone po nadchodzących wyborach, obejmując więcej aspektów AI, np. w pracy.
Wnioski: Nowa era regulacji AI w Unii Europejskiej
Wnioskując, wprowadzenie przełomowych regulacji dotyczących sztucznej inteligencji stanowi istotny krok naprzód dla Unii Europejskiej w równoważeniu innowacji z ochroną obywateli. Dzięki skrupulatnej ocenie ryzyka i przejrzystości, w połączeniu z rygorystycznymi karami za niezgodność, te środki podkreślają zaangażowanie UE w promowanie odpowiedzialnego rozwoju sztucznej inteligencji. W miarę jak globalna społeczność coraz bardziej boryka się z etycznymi implikacjami sztucznej inteligencji, proaktywne podejście Europy stanowi przekonujący precedens, inspirując kraje na całym świecie do refleksji nad własnymi politykami dotyczącymi sztucznej inteligencji.