Słoweńska Prezydencja w Radzie opublikowała pod koniec listopada nową wersję projektu rozporządzenia w sprawie sztucznej inteligencji. Zmiany w projekcie rozporządzenia – m.in. w zakresie jego zastosowania, definicji systemu sztucznej inteligencji czy klasyfikacji systemu jako wysokiego ryzyka – są w dużej mierze odpowiedzią na powszechną krytykę pierwszej wersji projektu. Zmiany są istotne zwłaszcza dla producentów platform do wdrażania własnych systemów AI oraz dla sektora finansowego i ubezpieczeniowego.
Zakres zastosowania Rozporządzenia
Propozycja Rady zmniejsza zakres zastosowania Rozporządzenia poprzez wprowadzenie nowych wyłączeń. Obejmują one m.in.:
Zakres zastosowania Rozporządzenia zmniejsza także zawężenie i doprecyzowanie definicji systemów AI, a także wyłączenie stosowania Rozporządzenia do systemów AI powszechnego zastosowania.
Z drugiej strony, niektóre systemy AI awansowały do kategorii systemów zakazanych lub wysokiego ryzyka.
Definicja „systemu sztucznej inteligencji”
Niewątpliwie za najistotniejszą zmianę należy uznać modyfikację definicji pojęcia „systemu sztucznej inteligencji”. Definicja zaproponowana pierwotnie przez Komisję była bardzo szeroka, obejmując rozwiązania nieuznawane powszechnie za sztuczną inteligencję, przez co została poddana powszechnej krytyce. Zgodnie z propozycją Rady, systemem AI jest system, który:
Definicja ta została doprecyzowana w motywie 6 projektu, w którym wskazano, że powinna opierać się na kluczowych cechach charakterystycznych sztucznej inteligencji, które odróżniają ją od klasycznych systemów oprogramowania i programowania. Tym, co ma odróżniać systemy AI od „zwykłego” oprogramowania, będzie zatem przede wszystkim zdolność uczenia się, rozumowania lub modelowania.
Zakazane praktyki w zakresie sztucznej inteligencji
Pierwotny projekt zaprezentowany przez Komisję przewidywał zakaz wykorzystania systemów sztucznej inteligencji, których poziom ryzyka oszacowano jako nieakceptowalny. Jednym z systemów objętych zakazem był system tzw. „scoringu społecznego”, wykorzystywanego przez organy publiczne. Przedstawiony przez słoweńską Prezydencję projekt Rozporządzenia rozszerza ten zakaz również na podmioty prywatne, które nie będą mogły stosować takich systemów nawet na potrzeby wewnętrzne.
Dodatkowo katalog systemów, które na potrzeby Rozporządzenia uznaje się za zakazane, został rozszerzony o rozwiązania, które wykorzystują słabości określonej grupy osób ze względu na ich sytuację społeczną lub materialną, w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy, w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną. Dotychczas ten przepis obejmował tylko systemy, które wykorzystują słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne.
Powyższe zmiany mogą mieć poważny wpływ na działalność podmiotów sektora e-commerce.
Z drugiej strony, liberalizacji uległy zasady wykorzystania systemów identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych. Możliwość stosowania tego typu systemów przyznano wszelkim podmiotom działającym na rzecz organów ścigania. Rozszerzeniu uległa także lista przesłanek, których wystąpienie usprawiedliwia zastosowanie tego rodzaju systemów. Nowy tekst projektu przewiduje, że będzie to możliwe w celach przeciwdziałania zagrożeniom infrastruktury krytycznej oraz niebezpieczeństw dla zdrowia ludzi. Co istotne, zmianie uległa sama definicja „systemów identyfikacji biometrycznej”. Zawarta w pierwotnej wersji projektu cecha identyfikacji „na odległość” została usunięta.
Systemy sztucznej inteligencji wysokiego ryzyka
Projekt zaproponowany przez Radę znacząco zmienia wytyczne klasyfikacji systemu AI, jako systemu wysokiego ryzyka. Proponowany tekst Rozporządzenia AI przewiduje trzy przesłanki kwalifikacji sztucznej inteligencji w tym zakresie:
Wspomniany Załącznik nr 3 również został poddany modyfikacjom. W pierwszej kolejności za systemy wysokiego ryzyka uznano rozwiązania dotyczące infrastruktury krytycznej i ochrony środowiska. W tym obszarze dodane zostały nowe typy systemów, tj. projektowane do kontroli lub jako element bezpieczeństwa infrastruktury cyfrowej oraz systemy AI mające na celu kontrolę emisji i zanieczyszczeń środowiska.
Do istotnych nowości należy też zaliczyć uznanie za systemy wysokiego ryzyka AI, systemy wykorzystywane przy ustalaniu składek ubezpieczeniowych, ubezpieczeń i oceny roszczeń.
Z katalogu systemów sztucznej inteligencji wykreślono natomiast rozwiązania mające służyć organom ścigania lub wykorzystywane na ich rzecz, w celu analizy przestępstw.
Systemy sztucznej inteligencji ogólnego zastosowania
W tekście Rozporządzenia zaprezentowanego przez słoweńską Prezydencję w Radzie dodano ponadto nowy typ systemów sztucznej inteligencji - systemy ogólnego zastosowania, które zasadniczo nie są objęte przepisami Rozporządzenia. Jednakże za dostawcę systemu sztucznej inteligencji będzie uznany każdy, kto wprowadza na rynek lub oddaje do użytku pod własną nazwą lub znakiem towarowym lub wykorzystuje systemy sztucznej inteligencji ogólnego przeznaczenia dostępne na rynku lub oddaje do użytku zgodnie z przeznaczeniem, które powoduje, że podlega on przepisom Rozporządzenia.
Powyższą regułę stosuje się odpowiednio do osób, które integrują w system sztucznej inteligencji ogólnego przeznaczenia dostępny na rynku, którego przeznaczenie powoduje, że podlega on przepisom Rozporządzenia.
To rozwiązanie powoduje, że producenci oprogramowania narzędziowego lub platform służących do wytwarzania własnych systemów AI nie będą podlegali regulacji. Przykładowo – producent platformy do tworzenia chatbotów głosowych nie będzie podlegał przepisom Rozporządzenia, natomiast użytkownik takiej platformy, który przy jej pomocy przygotował chatbota do wykorzystania na swojej stronie internetowej, będzie zobowiązany do stosowania Rozporządzenia.
Podsumowanie
Mimo, że zmiany zaproponowane przez Radę obejmują tylko niewielką część tekstu Rozporządzenia, to są to zmiany niezwykle istotne, gdyż wpływają na zakres planowanej regulacji. Część z zaprezentowanych propozycji oceniamy pozytywnie, gdyż jest to odpowiedź na wątpliwości podnoszone w stosunku do pierwotnego tekstu.
Z uwagi na zmiany w zakresie klasyfikacji systemów niedozwolonych lub wysokiego ryzyka, szczególną uwagę na obecny projekt, jak i dalsze prace, powinny zwrócić podmioty sektora finansowego oraz ubezpieczeniowego, na których działalność przepisy Rozporządzenia będą wywierały istotny wpływ.
Dalsze prace powinni śledzić także uważnie wszyscy producenci, dystrybutorzy i użytkownicy programów komputerowych, które wykorzystują techniki uczenia maszynowego lub obliczeń statystycznych pod kątem możliwości zaklasyfikowania ich jako systemów sztucznej inteligencji.
Więcej informacji na temat pierwszego projektu Rozporządzenia można przeczytać w alercie pt. „Projekt rozporządzenia w sprawie sztucznej inteligencji” (kwiecień 2021 r.).