languageRU      languageEN      internationalInternational        phoneZadzwoń do nas: 22 276 61 80

Jesteś tutaj:Start/Baza wiedzy/Zmiany w prawie/Publikacja rozporządzenia w sprawie sztucznej inteligencji (the AI Act)
wtorek, 23 lipiec 2024 10:56

Publikacja rozporządzenia w sprawie sztucznej inteligencji (the AI Act)

Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie Sztucznej Inteligencji/ the AI Act) i zmieniające niektóre akty ustawodawcze Unii Europejskiej zostało opublikowane w Dzienniku Urzędowym UE 13 lipca 2024 r. Akt w sprawie sztucznej inteligencji wejdzie w życie 1 sierpnia 2024 r. i będzie stosowany od 2 sierpnia 2026 r., tj. 24 miesiące po jego ogłoszeniu.

Zgodnie z pisemnych uzasadnieniem rozporządzenia Sztuczna Inteligencja (AI/SI) to szybko rozwijająca się grupa technologii, która może przynieść wiele różnych korzyści społeczno-ekonomicznych we wszystkich branżach i obszarach działalności społecznej.

Jednakże wykorzystywanie AI wraz z jej szczególnymi cechami (np. efekt czarnej skrzynki, złożoność, zależność od danych, autonomiczne zachowanie) może mieć negatywny wpływ na szereg praw podstawowych zapisanych w Karcie praw podstawowych Unii Europejskiej. Akt w sprawie Sztucznej Inteligencji ma na celu zapewnienie wysokiego poziomu ochrony tych praw podstawowych i zmierza do uwzględnienia różnych źródeł ryzyka poprzez jasno określone podejście oparte na analizie ryzyka.

Rozporządzenie opierać ma się na unijnych wartościach i prawach podstawowych i ma przyczynić się do tego, by obywatele i inni użytkownicy obdarzyli zaufaniem i zaakceptowali rozwiązania oparte na Sztucznej Inteligencji, a przedsiębiorstwa chętniej opracowywały takie rozwiązania.

Akt o Sztucznej Inteligencji reguluje:

  • przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów Sztucznej Inteligencji w Unii;
  • zakazy dotyczące określonych praktyk w zakresie Sztucznej Inteligencji;
  • szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów;
  • zharmonizowane przepisy dotyczące przejrzystości w przypadku systemów sztucznej inteligencji przeznaczonych do wchodzenia w interakcję z osobami fizycznymi, systemów rozpoznawania emocji oraz systemów kategoryzacji biometrycznej, a także systemów sztucznej inteligencji wykorzystywanych do generowania obrazów, treści dźwiękowych lub treści wideo lub do manipulowania nimi.

Akt o Sztucznej Inteligencji dzieli AI na 4 grupy:

1) oprogramowanie wysokiego ryzyka,

2) technologie ograniczonego wpływu

3) technologie minimalnego wpływu oraz

4) systemy nieakceptowalne, które będą w UE zakazane.

Oprogramowania wysokiego ryzyka to m.in. takie, które wykorzystują np. dane biometryczne, tj. dane dotyczących cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej lub potwierdzające jednoznaczną identyfikację tych osób – wizerunek twarzy lub dane daktyloskopijne, systemy zarządzania infrastrukturą krytyczną i jej eksploatacją, systemy kształcenia i szkoleń zawodowych, system ścigania przestępstw.

Systemy sztucznej inteligencji wysokiego ryzyka będą musiały spełniać szczególne wymogi określone Aktem w sprawie Sztucznej Inteligencji, w tym m.in. posiadać funkcję umożliwiającą automatyczne rejestrowanie zdarzeń („rejestry zdarzeń”) podczas działania tych systemów lub też zapewniać skuteczny nadzór takiego systemu przez człowieka, a także uzyskanie wymaganego oznakowania zgodności CE.

Do systemów nieakceptowalnych, tj. systemów zakazanych, należeć będą m.in. tzw. systemy punktowania społecznego służące do oceny obywateli na podstawie ich zachowań społecznych, techniki podprogowe będące poza świadomością danej osoby, systemy sztucznej inteligencji, które wykorzystują dowolne słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy.

Zakazane mają być również systemy Sztucznej inteligencji wykorzystywane przez lub w imieniu organów publicznych na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości. Przy czym warunkiem takiego zakazu jest to by taka punktowa ocena społeczna m.in. prowadziła do krzywdzącego lub niekorzystnego traktowania niektórych osób lub całych ich grup z celami, dla których pierwotnie wygenerowano lub zgromadzono ich dane.

Niedopuszczalne również ma być wykorzystanie AI do tzw. zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, za wąskimi wyjątkami, w tym jeżeli jest to absolutnie niezbędne m.in. do zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu. A więc szczególnej kontroli zostanie poddane wykorzystanie AI przez sektor publiczny, w tym przez policję, proces wyborczy czy sądy.

Powstać mają również tzw. „piaskownice regulacyjne” w zakresie AI mające stanowić kontrolowane środowisko ułatwiające opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem ich do użytku zgodnie z określonym planem. Tego rodzaju działalność musi przebiegać pod bezpośrednim nadzorem właściwych organów i zgodnie z ich wytycznymi, aby zapewnić zgodność z wymogami niniejszego rozporządzenia oraz – w stosownych przypadkach – z innymi przepisami prawa Unii i prawa państw członkowskich objętymi nadzorem w ramach piaskownicy.

Powstać ma również Europejska Rada ds. Sztucznej Inteligencji, której celem ma być m.in. przyczynianie się do zapewnienia owocnej współpracy między krajowymi organami nadzorczymi a Komisją Europejską w kwestiach wchodzących w zakres niniejszego rozporządzenia. Każde państwo członkowskie musi również ustanawiać lub wyznaczyć właściwe organy krajowe na potrzeby zapewnienia stosowania i wdrażania Aktu w sprawie Sztucznej Inteligencji.

Za naruszenie obowiązków przestrzeganie zakazu praktyk AI określonych przez Akt w sprawie Sztucznej Inteligencji, jak również m.in. za nieprzestrzeganie odpowiednich warunków przez dane treningowe, walidacyjne i testowe wykorzystywanych do trenowania modeli Sztucznej Inteligencji grożą poważne kary finansowe - do 30 mln EUR lub, a jeżeli sprawca jest przedsiębiorcą do 6% jego całkowitego rocznego światowego obrotu za poprzedni rok obrotowy,  przy czym zastosowanie ma kwota wyższa.

W przypadku naruszenia pozostałych obowiązków wynikających z Aktu w sprawie Sztucznej Inteligencji grozi kara finansowa do 20 mln EUR lub, a jeżeli sprawca jest przedsiębiorcą do 4% jego całkowitego rocznego światowego obrotu za poprzedni rok obrotowy,  przy czym zastosowanie ma kwota wyższa.

Autor: Paweł Szalewicz

Nasze publikacje

rbiuletyn

 

lipiec-wrzesień 2023

RB Biuletyn numer 44

pobierz magazyn

Nasze publikacje

rb restrukturyzacje             russellbedford             rbdombrokersi