AI pod lupą! - Nowa era regulacji i przejrzystości w Unii Europejskiej

AI pod lupą! - Nowa era regulacji i przejrzystości w Unii Europejskiej

21.03.2024

Autor

Piotr Ciszewski

Kategorie

AI

W obliczu dynamicznego rozwoju sektora AI, który przynosi zarówno zyski, jak i wyzwania etyczne, Unia Europejska podejmuje inicjatywę wprowadzając przełomową ustawę. Ten nowy akt prawny, segmentując aplikacje AI według potencjalnego ryzyka, dąży do zapewnienia odpowiednich regulacji, akcentując priorytet traktowania człowieka w erze technologicznej rewolucji.

"To nie koniec, ale początek nowej ery zarządzania technologią," mówi eurodeputowany Dragos Tudorache, podkreślając liderowanie UE w globalnym adresowaniu wyzwań AI.

Ustawa oficjalnie przyjęta

W zeszłą środę (23/03/2024) prawodawcy Unii Europejskiej zatwierdzili przygotowaną latami ustawę o sztucznej inteligencji, która obowiązywać będzie w bloku 27 krajów.

Część przepisów wejdzie w życie jeszcze w tym roku. Przewiduje się, że prawo dotyczące sztucznej inteligencji posłuży jako uniwersalne wytyczne dla innych państw, które starają się uregulować dynamicznie postępującą technologię.

4 poziomy ryzyka

Ustawa o AI w UE kieruje się zasadą proporcjonalności ryzyka: im większe ryzyko wiąże się z aplikacją AI, tym surowsze są wymogi. Większość systemów AI, takich jak filtry antyspamowe, uznaje się za nisko ryzykowne i ich regulacja jest dobrowolna. Aplikacje wysokiego ryzyka, np. w medycynie lub krytycznej infrastrukturze, muszą spełniać ścisłe kryteria, takie jak używanie danych wysokiej jakości. Pewne zastosowania AI, uznawane za nieakceptowalnie ryzykowne, jak systemy oceny społecznej czy predykcyjne patrole policyjne, są zakazane. Zakazy dotyczą też użycia biometrycznego rozpoznawania twarzy przez policję w przestrzeni publicznej, z wyjątkami dla ciężkich przestępstw.

Wymogi dla aplikacji

  • - Zabronione: jednoznacznie określone jako nielegalne w myśl przyjętych przepisów prawa.
  • - Ocena zgodności ymaga, aby aplikacje AI przeszły przez proces weryfikacji, potwierdzający, że spełniają określone normy bezpieczeństwa i etyki.
  • - Przejrzystość oznacza, że użytkownicy muszą być informowani o tym, jak działają te aplikacje, jakie dane są używane i w jakim celu, co ma na celu zwiększenie zaufania i zrozumienia technologii AI.
  • - Dla aplikacji z pierwszego poziomu ryzyka, wymogi są minimalne i skupiają się głównie na podstawowych zasadach etycznych w oparciu o bezpieczeństwo.

Generatywna Sztuczna Inteligencja w Ustawie UE

Początkowe wersje ustawy UE koncentrowały się na AI do specyficznych zadań, np. analizie CV. Jednak dynamiczny rozwój modeli generatywnej sztucznej inteligencji, jak ChatGPT, zmusił decydentów do aktualizacji przepisów.

Nowe Regulacje

Wprowadzono zasady dla generatywnych modeli AI, takich jak chatboty, tworzące realistyczne treści. Twórcy, w tym start-upy i giganci jak OpenAI czy Google, muszą ujawniać źródła danych (teksty, zdjęcia, filmy) używane do trenowania AI oraz przestrzegać praw autorskich. Treści AI imitujące realne osoby, miejsca, czy wydarzenia muszą być jasno oznaczone jako manipulowane.

Ryzyko Systemowe

Szczególną uwagę skupiono na dużych modelach AI, które mogą stanowić "ryzyko systemowe", włączając w to GPT-4 OpenAI czy Gemini Google. UE obawia się możliwości poważnych wypadków lub cyberataków oraz rozpowszechniania szkodliwych stereotypów przez te systemy.

Odpowiedzialność i Bezpieczeństwo

Dostawcy systemów muszą oceniać i minimalizować ryzyko, raportować poważne incydenty, wprowadzać środki cyberbezpieczeństwa oraz informować o zużyciu energii przez swoje modele. Te przepisy mają na celu nadążanie za postępem w AI, zabezpieczając społeczeństwo przed potencjalnymi zagrożeniami.

Wpływ Europejskich Przepisów na Świat

Unia Europejska

Europa, proponując regulacje AI już w 2019, stała się pionierem w globalnej regulacji nowych technologii. Bruksela wyróżnia się w zakresie wprowadzania norm dla szybko rozwijających się sektorów, inspirując inne kraje do podobnych działań.

Ruchy na Świecie

  • - W USA, prezydent Joe Biden wydał obszerne rozporządzenie w sprawie AI, mające prowadzić do międzynarodowych standardów i przepisów. Co najmniej siedem stanów w USA pracuje nad własnymi regulacjami AI, co świadczy o rosnącym zainteresowaniu uregulowaniem tej dziedziny.
  • - Prezydent Chin, Xi Jinping, przedstawił inicjatywę Globalnego Zarządzania AI, promującą sprawiedliwe i bezpieczne wykorzystanie sztucznej inteligencji. Chiny wprowadziły również "środki tymczasowe" regulujące AI generującą teksty, obrazy, dźwięki i wideo, skierowane do obywateli kraju.
  • - Równocześnie, na arenie międzynarodowej, od Brazylii po Japonię, oraz organizacje globalne jak ONZ czy G7, podejmują działania na rzecz tworzenia ram ochronnych dla AI, pokazując globalny zasięg i znaczenie inicjatyw regulacyjnych w tej dziedzinie.

Europejska inicjatywa regulacyjna ma zatem znaczący wpływ globalny, pobudzając inne kraje do refleksji nad własnymi przepisami dotyczącymi sztucznej inteligencji.

Kiedy nowe prawo o AI wejdzie w życie?

Oczekuje się, że ustawa o AI zostanie formalnie przyjęta w maju lub czerwcu, po finalizacji procedur, w tym zatwierdzeniu przez państwa UE. Przepisy zaczną obowiązywać stopniowo, z początkowym zakazem niektórych systemów AI już sześć miesięcy po wejściu w życie ustawy.
Regulacje dla ogólnego użytku AI, jak chatboty, zaczną działać rok po implementacji ustawy, z pełnym zestawem zasad dotyczących AI wysokiego ryzyka do połowy 2026. Kraje UE stworzą organy nadzorcze dla skarg związanych z AI, a Bruksela utworzy Biuro AI do egzekwowania przepisów.

Konsekwencje łamania prawa AI

Za naruszenie mogą grozić kary do 35 milionów euro lub 7% globalnych przychodów firmy. Włoski poseł Brando Benifei wskazuje, że przepisy mogą być rozszerzone po nadchodzących wyborach, obejmując więcej aspektów AI, np. w pracy.

Podsumowanie

Wnioskując, wprowadzenie przełomowych regulacji dotyczących sztucznej inteligencji stanowi istotny krok naprzód dla Unii Europejskiej w równoważeniu innowacji z ochroną obywateli. Dzięki skrupulatnej ocenie ryzyka i przejrzystości, w połączeniu z rygorystycznymi karami za niezgodność, te środki podkreślają zaangażowanie UE w promowanie odpowiedzialnego rozwoju sztucznej inteligencji. W miarę jak globalna społeczność coraz bardziej boryka się z etycznymi implikacjami sztucznej inteligencji, proaktywne podejście Europy stanowi przekonujący precedens, inspirując kraje na całym świecie do refleksji nad własnymi politykami dotyczącymi sztucznej inteligencji.