Twórcy sci-fi jednak nie tylko przewidywali potencjalne kierunki rozwoju technologii, ale stawiali też zasadnicze, wręcz filozoficzne pytania o możliwe interakcje między człowiekiem, a stworzoną przez niego sztuczną inteligencją, wskazując na zagrożenia wykorzystania jej przeciwko innym ludziom.
Artystyczna wizja stała się faktem. Sztuczna inteligencja wkracza w niemal każdą dziedzinę życia, my zaś często nie zdajemy sobie sprawy, że nasza prywatność przestała być naszą wyłączną własnością. Wychodząc naprzeciw konieczności zachowania praw podstawowych człowieka w zderzeniu z potencjałem sztucznej inteligencji, Unia Europejska przed dwoma laty rozpoczęła prace na kompleksowym rozwiązaniem prawnym regulującym funkcjonowanie AI na obszarze Unii Europejskiej czyli Aktem o Sztucznej Inteligencji (Artificial Intelligence Act - AIA).
Z jednej strony AIA chce zapewnić taki kształt przepisów o sztucznej inteligencji, aby nie zakłócić prawidłowego funkcjonowania rynku wewnętrznego i swobodnego, transgranicznego przepływu towarów i usług opartych na sztucznej inteligencji, zapobiegając poprzez to nakładaniu przez państwa członkowskie nieuzasadnionych ograniczeń na rozwój i wykorzystania systemów SI. AIA będzie wspierać inwestycje i innowacje w zakresie sztucznej inteligencji oraz ułatwiać rozwój jednolitego rynku dla jej zastosowań.
Z drugiej strony, mając na uwadze liczne możliwości i pokusy naruszania przy pomocy sztucznej inteligencji praw obywateli UE, celem nadrzędnym AIA jest zapewnienie, aby systemy SI na rynku europejskim były bezpieczne dla obywateli i zgodne z obowiązującym prawem, dlatego też Akt wprowadza klasyfikację systemów AI na następujące kategorie: ryzyko niedopuszczalne – zabronione AI, stanowiące zagrożenie dla zdrowia i bezpieczeństwa praw podstawowych praw, wysokie ryzyko – systemy AI wysokiego ryzyka, które będą podlegać szeregowi obowiązków, zanim będą mogły zostać wprowadzone na rynek, niskie ryzyko z obowiązkami w zakresie przejrzystości i minimalne ryzyko bez dodatkowych zobowiązań.
Szereg kategorii „wysokiego ryzyka”, w których wykorzystanie AI będzie ściśle kontrolowane, obejmuje programy związane między innymi z takimi dziedzinami jak edukacja, zatrudnienie, infrastruktura krytyczna, usługi publiczne czy też wymiar sprawiedliwości. Podmiotom, które naruszą AIA, grozi grzywna w wysokości do 30 milionów euro lub 6 proc. światowych zysków, w zależności od tego, która z tych kwot jest wyższa.
Z uwagi na kompleksowość tego rozporządzenia prace nad nim prowadziły aż dwie komisje parlamentarne, czyli Komisja Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych, które swoje prace nad projektem zakończyły 2 tygodnie temu. Przed nami jeszcze głosowanie na posiedzeniu plenarnym, które przewidziane jest na czerwiec.












