Jak poruszać się po przepisach dotyczących sztucznej inteligencji?
Sztuczna inteligencja (AI) dokonuje szybkiej transformacji branż i społeczeństw przynosząc zarówno bezprecedensowe postępy, jak i wyzwania. W miarę coraz większej integracji systemów AI z naszym sposobem prowadzenia działalności gospodarczej i codziennym życiem, potrzeba solidnej przepisów regulujących ich rozwój i wykorzystanie staje się coraz bardziej krytyczna.
Większość regulacji prawnych ma na celu zrównoważenie potrzeby innowacji z ochroną podstawowych praw i bezpieczeństwa publicznego. Niniejszy artykuł analizuje obecny stan prawodawstwa w zakresie sztucznej inteligencji, jego konsekwencje i drogę rozwoju.
Wzrost znaczenia przepisów dotyczących sztucznej inteligencji
Unia Europejska (UE) wprowadziła niedawno ustawę o sztucznej inteligencji. Te kompleksowe ramy mają na celu zapewnienie, że systemy sztucznej inteligencji są bezpieczne, przejrzyste i przestrzegają fundamentalnych praw. Będąc w czołówce technologii AI, kraje takie jak Stany Zjednoczone i Chiny już wcześniej wprowadziły ramy prawne, aby sprostać unikalnym wyzwaniom stawianym przez AI. Niezależnie od tempa rozwoju, istnieje potrzeba uregulowania krajobrazu technologii AI, aby zarówno promować innowacje, jak i budować zaufanie.
Zaufana ścieżka rozwoju
Wdrażanie przepisów dotyczących sztucznej inteligencji wiąże się z kilkoma wyzwaniami. Szybkie tempo rozwoju sztucznej inteligencji może przewyższać możliwości ram regulacyjnych. Ponadto zrównoważenie innowacji z odpowiednimi regulacjami wymaga starannego przemyślenia, aby uniknąć zahamowania postępu technologicznego. Przepisy dotyczące sztucznej inteligencji oferują jednak również znaczące możliwości. Tworząc jasne wytyczne i standardy, ustawodawstwo może wspierać innowacje, zwiększać zaufanie publiczne i dbać o to, by systemy sztucznej inteligencji były opracowywane i wykorzystywane w odpowiedzialny sposób. Co więcej, nadając priorytet bezpieczeństwu, transparentności i względom etycznym, możemy w pełni wykorzystać potencjał sztucznej inteligencji jednocześnie chroniąc interesy jednostek i społeczeństwa.
Uzupełniane przez międzynarodowe normy
Wysiłki legislacyjne są uzupełniane przez międzynarodowe normy, takie jak ISO/IEC 42001. Ta certyfikowana norma zawiera wymagania dotyczące wdrażania systemów zarządzania sztuczną inteligencją i nie jest ogranicza geograficznie. Choć norma ISO/IEC 42001 sama w sobie nie jest aktem prawnym, przewiduje się, że odegra ona znaczącą rolę w popularyzacji godnej zaufania sztucznej inteligencji poprzez ustanowienie najlepszych praktyk w zakresie zarządzania nią. Norma ta, zaprojektowana w celu zapewnienia bezpiecznego, niezawodnego i etycznego rozwoju, wdrażania i użytkowania sztucznej inteligencji, jest wymieniana w przepisach jako cenny środek zapewniający wprowadzanie odpowiednich procesów zarządzania.
Kluczowe elementy przepisów dotyczących sztucznej inteligencji
Przepisy dotyczące sztucznej inteligencji zazwyczaj obejmują kilka kluczowych elementów:
- Bezpieczeństwo i niezawodność: Zapewnienie, że systemy AI działają bezpiecznie i niezawodnie jest nadrzędne. Przepisy często obejmują wymogi dotyczące zarządzania ryzykiem, testowania i zatwierdzania, aby zapobiec szkodzeniu jednostkom i społeczeństwu.
- Transparentność i odpowiedzialność: Transparentność w procesach decyzyjnych AI ma kluczowe znaczenie dla budowania zaufania. Prawodawstwo wymaga, aby twórcy AI zapewniali jasne wyjaśnienia dotyczące funkcjonowania ich systemów i ustanawiali mechanizmy służące do rozliczania z odpowiedzialności.
- Względy etyczne: Zasady etyczne, takie jak sprawiedliwość, niedyskryminacja i poszanowanie prywatności, są integralną częścią przepisów dotyczących sztucznej inteligencji. Zasady te kierują rozwojem i wdrażaniem systemów sztucznej inteligencji, aby zapewnić ich zgodność z wartościami społecznymi.
- Przestrzeganie i egzekwowanie przepisów: Skuteczne mechanizmy egzekwowania prawa są niezbędne do zapewnienia zgodności z przepisami dotyczącymi sztucznej inteligencji. Organy regulacyjne mają za zadanie monitorowanie systemów AI, przeprowadzanie audytów i nakładanie kar za nieprzestrzeganie przepisów.
Europa: Ustawa UE o sztucznej inteligencji (EU AI Act)
Unia Europejska (UE) podjęła znaczący krok w kierunku uregulowania kwestii sztucznej inteligencji. Unijna ustawa o sztucznej inteligencji ma na celu zapewnienie, że systemy AI są bezpieczne, transparentne i zgodne z podstawowymi prawami jednocześnie wspierając innowacje. Opublikowana 12 lipca 2024 roku, weszła w życie 1 sierpnia 2024 roku. Jej przepisy będą stopniowo wdrażane, przy czym zobowiązania dotyczące zakazanych praktyk zaczną obowiązywać od 2 lutego 2025 r., a wymogi dotyczące systemów AI wysokiego ryzyka od 2 sierpnia 2026 r.
Unijna ustawa o sztucznej inteligencji kategoryzuje systemy sztucznej inteligencji w oparciu o ich poziomy ryzyka:
- Niedopuszczalne, np. scoring społecznościowy, są zabronione.
- Wysokiego ryzyka, np. rekrutacja lub wyroby medyczne; są dozwolone pod warunkiem spełnienia konkretnych wymogów i przeprowadzenia oceny zgodności.
- Niosące ryzyko „transparentności”, np. chatboty lub deep fakes, są dozwolone pod warunkiem spełnienia obowiązków informacyjnych/transparentności.
- O minimalnym lub zerowym ryzyku są dozwolone bez żadnych ograniczeń.
Systemy AI o niedopuszczalnym ryzyku, takie jak te, które manipulują ludzkim zachowaniem lub wykorzystują luki w zabezpieczeniach, są zabronione. Systemy AI wysokiego ryzyka, które obejmują zastosowania w infrastrukturze krytycznej, edukacji i zatrudnieniu, muszą zostać poddane rygorystycznej ocenie zgodności przed wdrożeniem.
Unijny akt dotyczący sztucznej inteligencji ustanawia również wymogi w zakresie transparentności i odpowiedzialności. Twórcy sztucznej inteligencji muszą dostarczać jasnych informacji o tym, jak działają ich systemy i zapewniać możliwość ich kontroli. Obejmuje to prowadzenie szczegółowej dokumentacji i rejestrów w celu ułatwienia nadzoru i zgodności. Dotyczy to również firm obsługujących lub sprzedających produkty AI w UE. Firmy eksportujące muszą zapewnić, że ich systemy AI spełniają określone standardy i przechodzą niezbędne oceny.
Ustawodawstwo dotyczące sztucznej inteligencji w Stanach Zjednoczonych
Przyjmując nieco inne podejście niż UE, Stany Zjednoczone wcześnie uznały potrzebę kompleksowej regulacji rozwoju i wykorzystania sztucznej inteligencji. Zaowocowało to kilkoma aktami prawnymi na szczeblu federalnym i stanowym, a w 2023 r. wprowadzono ponad 40 ustaw stanowych. Krajobraz legislacyjny w USA jest dość złożony, ale w dużej mierze odzwierciedla rosnącą potrzebę zrównoważenia innowacji z zabezpieczeniami chroniącymi jednostki i społeczeństwo przed zagrożeniami związanymi ze sztuczną inteligencją.
Istnieje kilka kluczowych aktów prawnych i działań regulacyjnych kształtujących krajobraz sztucznej inteligencji w Stanach Zjednoczonych. „The Blueprint for an AI Bill of Rights” opublikowany w październiku 2022 r., określa zasady ochrony osób fizycznych przed potencjalnymi szkodami związanymi ze sztuczną inteligencją. Koncentruje się na prawach takich jak prywatność, ochrona przed dyskryminacją ze strony algorytmów i zapewnienie transparentności. Szeroko zakrojone „Executive Order on AI” podpisane przez prezydenta Joe Bidena w 2023 r. podkreśliło potrzebę bezpiecznej i godnej zaufania sztucznej inteligencji. Nakłada ono również na agencje federalne obowiązek przyjęcia środków zapewniających, że systemy sztucznej inteligencji są opracowywane i wykorzystywane w sposób odpowiedzialny. Istnieje kilka ustaw, które mają na celu promowanie innowacji w bezpieczny, niezawodny, etyczny i przejrzysty sposób, takich jak National AI Initiative Act z 2020 r. i Future of AI Innovation Act. W maju 2024 r. podpisano przełomową ustawę Colorado AI Act, która jako pierwsza tego rodzaju w Stanach Zjednoczonych obejmuje międzysektorową ustawę o zarządzaniu sztuczną inteligencją uwzględniającą sektor publiczny. Opracowywane są różne ustawy kongresowe, takie jak niedawno zaproponowana ustawa SB 1047 California AI Safety Bill, która ma na celu dalsze regulowanie najpotężniejszego modelu sztucznej inteligencji.
Chińskie przepisy dotyczące sztucznej inteligencji
Jak dotąd Chiny nie wydały kompleksowej ustawy o sztucznej inteligencji, ale opublikowały przepisy dotyczące zastosowań AI. Jednak w przeciwieństwie do Unii Europejskiej, gdzie unijna ustawa o sztucznej inteligencji działa jako szerokie ramy regulacyjne dla całego systemu AI, Chiny przyjmują wertykalne podejście w kwestii regulowania określonych usług AI.
Mając ambitny cel stania się światowym liderem w rozwoju i zastosowaniu sztucznej inteligencji, rząd w Pekinie opublikował w 2017 r. „Plan rozwoju sztucznej inteligencji nowej generacji”, który jest pierwszym systemowym i strategicznym planem w sferze sztucznej inteligencji. Wywołało to eksplozję w działalności branży i wsparcie politycznego dla rozwoju AI.
Chiński krajobraz zarządzania sztuczną inteligencją obejmuje pięć głównych kategorii:
- Polityki i strategie zarządzania. Pekin opublikował szereg zasad zarządzania na poziomie krajowym, planów, wytycznych czy opinii dotyczących technologii AI. Stanowią one podstawę dla prawodawstwa w zakresie sztucznej inteligencji. Na przykład Rada Państwa opublikowała „Opinie w sprawie wzmocnienia zarządzania etycznego w nauce i technologiach”, które wyrażają opinie Pekinu na temat zasad etycznych technologii AI.
- Przepisy prawa. Niektóre z istniejących przepisów dotyczą pewnych aspektów opracowywania, dostarczania, wdrażania i wykorzystywania systemów sztucznej inteligencji, które mają znaczący wpływ na prawodawstwo w tym zakresie. Wśród nich wyróżniono trzy ustawy, tj. „Ustawę o ochronie danych osobowych”, „Ustawę o bezpieczeństwie danych” i „Ustawę o cyberbezpieczeństwie”.
- Przepisy administracyjne. Niektóre przepisy administracyjne tworzą konkretne wymagania dla algorytmów AI, gdy są one wykorzystywane w internetowych usługach informacyjnych, takich jak „głęboka synteza treści”, „system rekomendacji” i „generatywny system AI”.
- Przepisy miejskie. Niektóre miasta w Chinach (Szanghaj i Shenzhen) również wydały własne przepisy dotyczące sztucznej inteligencji, które mają na celu promowanie rozwoju branży sztucznej inteligencji. Oba przepisy wymagają skutecznej kontroli ryzyka wprowadzanego przez sztuczną inteligencję, przy czym produkty i usługi związane ze sztuczną inteligencją o wysokim ryzyku podlegają bardziej szczegółowej kontroli niż te, które stwarzają mniejsze ryzyko.
- Standardy krajowe. Aby wesprzeć regulację systemu AI, Chiński Instytut Normalizacyjny Elektroniki prowadzi prace nad opracowaniem serii zalecanych standardów obejmujących wiele aspektów technologii AI.
Wpływ na przedsiębiorstwa
Krajobraz legislacyjny na całym świecie jest dość kompleksowy, dodając pewien stopień złożoności, którym muszą zarządzać firmy, niezależnie od tego, czy działają w określonej lokalizacji, czy wewnętrznie. Wspólne dla większości jest to, że organy rządowe chcą zająć się zarówno możliwościami, jak i wyzwaniami związanymi z technologiami AI.
Ich głównym celem jest promowanie innowacji oraz odpowiedzialnego rozwoju i wykorzystania sztucznej inteligencji, zapewniając, że przyniesie ona korzyści społeczeństwu, jednocześnie chroniąc przed potencjalnymi zagrożeniami. Ponieważ technologia AI nadal ewoluuje w szybkim tempie, organy regulacyjne będą starały się za nią nadążyć, podobnie jak przedsiębiorstwa.
Aby zapewnić sprawne zarządzanie, firmom korzystne byłoby wdrożenie systemu zarządzania sztuczną inteligencją (AIMS) zgodnego z normą ISO/IEC 42001 w połączeniu z systemami zarządzania ukierunkowanymi na bezpieczeństwo informacji (ISO/IEC 27001) lub prywatność (ISO/IEC 27701). Zapewniłoby to ustrukturyzowane podejście do zarządzania ryzykiem, w tym zgodności z przepisami i ustanawia praktyki ciągłego doskonalenia. Wskazana jest również certyfikacja przez niezależny podmiot zewnętrzny, taki jak DNV, który może pomóc w zapewnieniu bezpiecznych, niezawodnych i etycznych systemów sztucznej inteligencji, wspierać zgodność z przepisami i przełamywać bariery zaufania.