Dyrektywa AI Act. UE chce ograniczeń dla stosowania sztucznej inteligencji

Zdjęcie ilustracyjne. Fot. Envato

Zdjęcie ilustracyjne. Fot. Envato

 

Nowe prawo ma powstrzymywać rozwijanie AI w obszarach, które mogą być szkodliwe dla ludzi, ale jednocześnie kuszą firmy możliwością uzyskania dużego i szybkiego przychodu – wyjaśnia ekspert z zakresu cyberzabezpieczeń i bezpieczeństwa sieci, Leszek Tasiemski.

Ekspert zwraca uwagę, że w unijnych regulacjach wprowadza się kategorie wykorzystywania sztucznej inteligencji. Co najważniejsze – jak dodaje Leszek Tasiemski – opisane zostały kategorie, gdzie jej wykorzystanie nie będzie możliwe. Chodzi m.in. o systemy śledzące ludzkie słabości, tworzenie manipulacji czy systemy bazujące na punktowaniu społeczeństwa, czyli social scoringu.

Unijna dyrektywa ma również zakazać tworzenia systemów, które będą w czasie rzeczywistym rozpoznawać ludzkie twarze, jak chociażby w miejskich monitoringach. Przepisy wprowadzają także kategorię wysokiego ryzyka. Chodzi o obszary z zakresu edukacji, prawa, infrastruktury krytycznej czy systemów medycznych. Firmy oferujące takie rozwiązania będą podlegać specjalnemu nadzorowi i będą musiały posiadać bezpieczne systemy wykorzystujące algorytmy.

Dyrektywa AI Act przewiduje utworzenie europejskiego urzędu ds. sztucznej inteligencji. Instytucja będzie monitorowała proces wdrażania i egzekwowania przepisów, a także wspierała innowacje oraz rozwój sztucznej inteligencji w Europie. Ostateczny kształt dyrektywy AI Act może zostać ogłoszony do końca tego roku.

Exit mobile version