Alert prawny: Jakie zmiany w nowym projekcie rozporządzenia AI?

Autorzy

kuba ruiz Module
Kuba Ruiz

Senior Counsel
Polska

Pracuję jako Senior Counsel w praktyce Commercial. Doradzam przy transakcjach komercyjnych i projektach technologicznych, rozwijając jednocześnie doświadczenie w sporach. Doradzam również w aspektach regulacyjnych na europejskim rynku FinTech.

michal smiechowski Module
Michal Smiechowski

Associate
Polska

Pracuję na stanowisku associate w praktyce Commercial.

tomasz zalewski module
Tomasz Zalewski

Partner
Polska

Pracuję jako partner w praktyce Commercial. Jestem ekspertem w zakresie prawa zamówień publicznych, nowych technologii i prawa własności intelektualnej.

Słoweńska Prezydencja w Radzie opublikowała pod koniec listopada nową wersję projektu rozporządzenia w sprawie sztucznej inteligencji. Zmiany w projekcie rozporządzenia – m.in. w zakresie jego zastosowania, definicji systemu sztucznej inteligencji czy klasyfikacji systemu jako wysokiego ryzyka – są w dużej mierze odpowiedzią na powszechną krytykę pierwszej wersji projektu. Zmiany są istotne zwłaszcza dla producentów platform do wdrażania własnych systemów AI oraz dla sektora finansowego i ubezpieczeniowego.

Zakres zastosowania Rozporządzenia

Propozycja Rady zmniejsza zakres zastosowania Rozporządzenia poprzez wprowadzenie nowych wyłączeń. Obejmują one m.in.:

  • systemy sztucznej inteligencji rozwijane wyłącznie w celu bezpieczeństwa narodowego,
  • systemy rozwijane wyłącznie do celów badań naukowych,
  • działalność w zakresie badań i rozwoju systemów sztucznej inteligencji, o ile taka działalność nie wiąże się z oferowaniem systemu sztucznej inteligencji na rynku lub świadczeniem usług z nim związanych.

Zakres zastosowania Rozporządzenia zmniejsza także zawężenie i doprecyzowanie definicji systemów AI, a także wyłączenie stosowania Rozporządzenia do systemów AI powszechnego zastosowania.

Z drugiej strony, niektóre systemy AI awansowały do kategorii systemów zakazanych lub wysokiego ryzyka.

Definicja „systemu sztucznej inteligencji”

Niewątpliwie za najistotniejszą zmianę należy uznać modyfikację definicji pojęcia „systemu sztucznej inteligencji”. Definicja zaproponowana pierwotnie przez Komisję była bardzo szeroka, obejmując rozwiązania nieuznawane powszechnie za sztuczną inteligencję, przez co została poddana powszechnej krytyce. Zgodnie z propozycją Rady, systemem AI jest system, który:

  • otrzymuje dane wejściowe od człowieka lub maszyny,
  • wnioskuje, w jaki sposób osiągnąć zestaw celów określonych przez człowieka, używając uczenia się, rozumowania lub modelowania z wykorzystaniem technik i metod wymienionych w załączniku 1 oraz,
  • generuje dane wyjściowe w postaci treści, przewidywań, zaleceń lub decyzji, które wpływają na otoczenie, z którym wchodzi w interakcje (generatywne systemy AI).

Definicja ta została doprecyzowana w motywie 6 projektu, w którym wskazano, że powinna opierać się na kluczowych cechach charakterystycznych sztucznej inteligencji, które odróżniają ją od klasycznych systemów oprogramowania i programowania. Tym, co ma odróżniać systemy AI od „zwykłego” oprogramowania, będzie zatem przede wszystkim zdolność uczenia się, rozumowania lub modelowania.

Zakazane praktyki w zakresie sztucznej inteligencji

Pierwotny projekt zaprezentowany przez Komisję przewidywał zakaz wykorzystania systemów sztucznej inteligencji, których poziom ryzyka oszacowano jako nieakceptowalny. Jednym z systemów objętych zakazem był system tzw. „scoringu społecznego”, wykorzystywanego przez organy publiczne. Przedstawiony przez słoweńską Prezydencję projekt Rozporządzenia rozszerza ten zakaz również na podmioty prywatne, które nie będą mogły stosować takich systemów nawet na potrzeby wewnętrzne.

Dodatkowo katalog systemów, które na potrzeby Rozporządzenia uznaje się za zakazane, został rozszerzony o rozwiązania, które wykorzystują słabości określonej grupy osób ze względu na ich sytuację społeczną lub materialną, w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy, w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną. Dotychczas ten przepis obejmował tylko systemy, które wykorzystują słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne.

Powyższe zmiany mogą mieć poważny wpływ na działalność podmiotów sektora e-commerce.

Z drugiej strony, liberalizacji uległy zasady wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych. Możliwość stosowania tego typu systemów przyznano wszelkim podmiotom działającym na rzecz organów ścigania. Rozszerzeniu uległa także lista przesłanek, których wystąpienie usprawiedliwia zastosowanie tego rodzaju systemów. Nowy tekst projektu przewiduje, że będzie to możliwe w celach przeciwdziałania zagrożeniom infrastruktury krytycznej oraz niebezpieczeństw dla zdrowia ludzi. Co istotne, zmianie uległa sama definicja „systemów identyfikacji biometrycznej”. Zawarta w pierwotnej wersji projektu cecha identyfikacji „na odległość” została usunięta.

Systemy sztucznej inteligencji wysokiego ryzyka

Projekt zaproponowany przez Radę znacząco zmienia wytyczne klasyfikacji systemu AI, jako systemu wysokiego ryzyka. Proponowany tekst Rozporządzenia AI przewiduje trzy przesłanki kwalifikacji sztucznej inteligencji w tym zakresie:

  • gdy jest to produkt objęty zharmonizowanym prawodawstwem UE wskazanym w Aneksie 2 do Rozporządzenia, jeśli taki system, zgodnie z odpowiednią regulacją, musi przejść zewnętrzną ocenę zgodności w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku (np. windy, zabawki),
  • gdy system AI ma być wykorzystywany jako element bezpieczeństwa produktów objętych wskazanymi powyżej regulacjami, jeśli musi on przejść zewnętrzną ocenę zgodności w celu wprowadzenia takiego produktu do obrotu lub oddania go do użytku,
  • gdy jest to system AI wskazany w załączniku nr 3 do Rozporządzenia AI.

Wspomniany Załącznik nr 3 również został poddany modyfikacjom. W pierwszej kolejności za systemy wysokiego ryzyka uznano rozwiązania dotyczące infrastruktury krytycznej i ochrony środowiska. W tym obszarze dodane zostały nowe typy systemów, tj. projektowane do kontroli lub jako element bezpieczeństwa infrastruktury cyfrowej oraz systemy AI mające na celu kontrolę emisji i zanieczyszczeń środowiska.

Do istotnych nowości należy też zaliczyć uznanie za systemy wysokiego ryzyka AI, systemy wykorzystywane przy ustalaniu składek ubezpieczeniowych, ubezpieczeń i oceny roszczeń.

Z katalogu systemów sztucznej inteligencji wykreślono natomiast rozwiązania mające służyć organom ścigania lub wykorzystywane na ich rzecz, w celu analizy przestępstw.

Systemy sztucznej inteligencji ogólnego zastosowania

W tekście Rozporządzenia zaprezentowanego przez słoweńską Prezydencję w Radzie dodano ponadto nowy typ systemów sztucznej inteligencji - systemy ogólnego zastosowania, które zasadniczo nie są objęte przepisami Rozporządzenia. Jednakże za dostawcę systemu sztucznej inteligencji będzie uznany każdy, kto wprowadza na rynek lub oddaje do użytku pod własną nazwą lub znakiem towarowym lub wykorzystuje systemy sztucznej inteligencji ogólnego przeznaczenia dostępne na rynku lub oddaje do użytku zgodnie z przeznaczeniem, które powoduje, że podlega on przepisom Rozporządzenia.

Powyższą regułę stosuje się odpowiednio do osób, które integrują w system sztucznej inteligencji ogólnego przeznaczenia dostępny na rynku, którego przeznaczenie powoduje, że podlega on przepisom Rozporządzenia.

To rozwiązanie powoduje, że producenci oprogramowania narzędziowego lub platform służących do wytwarzania własnych systemów AI nie będą podlegali regulacji. Przykładowo – producent platformy do tworzenia chatbotów głosowych nie będzie podlegał przepisom Rozporządzenia, natomiast użytkownik takiej platformy, który przy jej pomocy przygotował chatbota do wykorzystania na swojej stronie internetowej, będzie zobowiązany do stosowania Rozporządzenia.

Podsumowanie

Mimo, że zmiany zaproponowane przez Radę obejmują tylko niewielką część tekstu Rozporządzenia, to są to zmiany niezwykle istotne, gdyż wpływają na zakres planowanej regulacji. Część z zaprezentowanych propozycji oceniamy pozytywnie, gdyż jest to odpowiedź na wątpliwości podnoszone w stosunku do pierwotnego tekstu.

Z uwagi na zmiany w zakresie klasyfikacji systemów niedozwolonych lub wysokiego ryzyka, szczególną uwagę na obecny projekt, jak i dalsze prace, powinny zwrócić podmioty sektora finansowego oraz ubezpieczeniowego, na których działalność przepisy Rozporządzenia będą wywierały istotny wpływ.

Dalsze prace powinni śledzić także uważnie wszyscy producenci, dystrybutorzy i użytkownicy programów komputerowych, które wykorzystują techniki uczenia maszynowego lub obliczeń statystycznych pod kątem możliwości zaklasyfikowania ich jako systemów sztucznej inteligencji.

Więcej informacji na temat pierwszego projektu Rozporządzenia można przeczytać w alercie pt. „Projekt rozporządzenia w sprawie sztucznej inteligencji” (kwiecień 2021 r.).

Najnowsze

Więcej

Projekt ustawy o zmianie ustawy o krajowym systemie cyberbezpieczeństwa oraz niektórych innych ustaw w wersji dla podmiotów kluczowych i podmiotów ważnych z sektora bankowego i infrastruktury rynków finansowych

lis 22 2024

Więcej

Czy analiza sentymentu przy pomocy systemu AI to praktyka zakazana?

lis 08 2024

Więcej

Nowe uprawnienia konsumenckie w ustawie Prawo komunikacji elektronicznej

3 min lis 05 2024

Więcej