AI Act oficjalnie przyjęty. Co zawiera i kogo dotyczy?
Pojawienie się technologii OpenAI, czyli popularnego Chata GPT sprawiło, że coraz częściej mówi się o obawach związanych z korzystaniem ze sztucznej inteligencji, zarówno pod kątem społecznym i etycznym, ale też prawnym. Stworzenia pierwszego na świecie kompleksowego prawa, które ma uregulować AI i ograniczyć zagrożenia, jakie wynikają z różnych zastosowań tej technologii, podjęła się Unia Europejska. Czym jest AI Act i co zawiera?
- Czym jest AI Act?
- Dlaczego regulacja sztucznej inteligencji jest potrzebna?
- Akt w sprawie sztucznej inteligencji – co zawiera?
- Kogo dotyczy AI Act?
- Na co wpłynie AI Act i co zmieni?
- Gdzie przeczytać AI Act po polsku?
- Kto oprócz UE pracuje nad uregulowaniem AI?
- Czy AI Act ograniczy rozwój sztucznej inteligencji?
Czym jest AI Act?
AI Act to pierwszy na świecie dokument, który ma na celu stworzenie regulacji dotyczących sztucznej inteligencji. Jego podstawowym celem jest gwarancja, że narzędzia AI będą rozwijane w Europie zgodnie z prawami oraz wartościami Unii, czyli między innymi bezpieczeństwem, transparentnością, prywatnością oraz dobrem społecznym.
Jako że rozwój AI przyspieszył, prace również nabrały tempa. W czerwcu 2023 legislatorzy zatwierdzili wersję roboczą Aktu, a 13 marca 2024 r. Parlament Europejski przegłosował nowe rozporządzenie – ma ono zapewnić możliwość rozwoju sztucznej inteligencji, przy jednoczesnym poszanowaniu praw człowieka oraz minimalizowaniu zjawiska dyskryminacji.
Dlaczego regulacja sztucznej inteligencji jest potrzebna?
Szybki rozwój AI przynosi zarówno korzyści, jak i pewne zagrożenia. Uwagę zwraca kilka kwestii, których uniknąć można dzięki odpowiedniej regulacji prawnej. Są to:
- potencjalna likwidacja milionów miejsc pracy poprzez automatyzację wielu zawodów, co może spowodować problemy gospodarcze;
- nowe zagrożenia bezpieczeństwa – np. wykorzystywanie AI do zautomatyzowanych cyberataków;
- dezinformacja – w złych rękach sztuczna inteligencja może być wykorzystywana do rozpowszechniania fałszywych informacji, deep fake’ów i manipulacji gospodarkami lub debatami politycznymi;
- wątpliwości natury etycznej – szczególnie w zastosowaniach wojskowych oraz inwigilacji; problemem jest też profilowanie ludzi;
- brak kontroli – wiele osób obawia się, że systemy AI mogą stać się zbyt autonomiczne, a tym samym przewyższyć ludzką inteligencję, co spowoduje utratę kontroli nad ich działaniami.
Akt w sprawie sztucznej inteligencji – co zawiera?
Parlament Unii Europejskiej dąży do tego, by rozwiązania oparte o AI były transparentne, bezpieczne, przyjazne dla środowiska oraz nie prowokowały dyskryminacji. Powinny być ściśle nadzorowane przez ludzi, by zapobiec potencjalnie szkodliwym skutkom. Zgodnie z rozporządzeniem przyjęto m.in. takie zasady jak:
- każde państwo członkowskie ma stworzyć tzw. “piaskownice regulacyjne”, czyli przestrzeń, w której firmy będą mogły rozwijać technologię. W niej nie trzeba będzie przestrzegać wszystkich przepisów, dzięki czemu nie zostanie ograniczona innowacyjność.
- Zakazany jest scoring społeczny, rozpoznawanie emocji w pracy oraz szkołach oraz działania policji oparte tylko na AI. Oprócz tego nie będzie można manipulować ludzkim zachowaniem przy pomocy sztucznej inteligencji.
- Organy ścigania będą mogły korzystać z systemów identyfikacji biometrycznej tylko w ściśle określonych sytuacjach oraz po spełnieniu pewnych warunków. Potrzebne będzie też zezwolenie administracyjne lub sądowe.
- Systemy oraz modele oparte na AI muszą zachowywać odpowiedni poziom bezpieczeństwa cybernetycznego.
- Należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, wideo oraz audio.
Nowe przepisy określają obowiązki zarówno dla dostawców, jak i użytkowników, a ich zastosowanie jest zależne od poziomu ryzyka, jakie wynika z użytkowania danego systemu AI. Skupiono się przede wszystkim nad tymi wysokiego ryzyka, z uwagi na ich potencjalną szkodliwość dla zdrowia, bezpieczeństwa, środowiska, demokracji, praworządności praz praw podstawowych. Chodzi tu przede wszystkim o infrastrukturę krytyczną, szkolenia, rynek pracy, edukację oraz usługi publiczne i prywatne.
Systemy wysokiego ryzyka mają oceniać oraz ograniczać ryzyko, być przejrzyste i dokładne, a także zapewniać nadzór człowieka. Muszą też być w takich sytuacjach prowadzone dzienniki użytkowania. Użytkownicy będą mogli składać skargi dotyczące systemów AI, a także otrzymywać wyjaśnienia.
Z kolei systemy sztucznej inteligencji ogólnego przeznaczenia muszą zapewnić zgodność z unijnym prawem autorskim i spełniać wszelkie wymogi w zakresie przejrzystości. Określone zostały też zasady wykorzystywania treści w szkoleniach SI. Modele, które są potężniejsze, a tym samym stwarzają ryzyko systemowe, będą musiały spełnić dodatkowe wymagania, czyli m.in. przeprowadzanie ich ocen oraz raportowanie incydentów.
Kogo dotyczy AI Act?
Rozporządzenie regulujące sztuczną inteligencję ma zastosowanie zarówno do dostawców, którzy wprowadzają do użytku AI w Unii Europejskiej (także ci, którzy mają siedzibę w państwie trzecim), jak i operatorów AI, którzy korzystają z AI pod swoją kontrolą. Mogą to być osoby fizyczne lub prawne, organy publiczne, agencje i inne podmioty. Jedynym wyjątkiem jest wykorzystywanie sztucznej inteligencji w ramach osobistej działalności pozazawodowej.
AI Act nakłada też obowiązki na dostawców modeli językowych, takich jak GPT-4. Ich dostawcy będą musieli ocenić oraz złagodzić możliwe ryzyko i zarejestrować swoje modele w bazie danych UE przed wprowadzeniem ich na rynek.
Nie spotkało się to z zadowoleniem niektórych gigantów technologicznych. Sam Altman, CEO OpenAI, stojący za ChatGPT, wyraził pewne obawy w związku z wprowadzanymi regulacjami w EU i stwierdził, że jeśli firma nie będzie w stanie im sprostać, wycofa się z Unii Europejskiej.
Na co wpłynie AI Act i co zmieni?
AI Act, z uwagi na regulacje, jakie wprowadzi, będzie mieć wpływ zarówno na firmy, jak i na zwykłych użytkowników. Przedsiębiorstwa będą musiały dostosować się do nowych wymogów prawnych, takich jak transparentność, etyka czy ochrona prywatności. Konieczne będzie też sprawdzenie, czy w działalności firmy wykorzystywane są systemy AI, które są zakazane lub uznane za wysokie ryzyko.
W przypadku stosowania zakazanych systemów, ich użycie musi zostać zakończone w ciągu sześciu miesięcy od momentu wejścia w życie nowych regulacji. Natomiast przy systemach o wysokim ryzyku, organizacje mają dwa lata na opracowanie i wdrożenie odpowiednich procedur i zabezpieczeń zgodnych z wymaganiami.
Użytkownicy z kolei zyskają większą ochronę oraz będą mieć pełną świadomość tego, z czym dokładnie mają do czynienia (np. z treściami wygenerowanymi przez AI). Ich dane powinny być też bezpieczniejsze, a prawa respektowane – z uwagi na to, że zakazany będzie między innymi scoring społeczny czy manipulacja zachowaniem przy pomocy AI.
Gdzie przeczytać AI Act po polsku?
Jeśli interesuje Cię treść AI Act EU, możesz go znaleźć na tej stronie. Jest dostępny po angielsku, jak i w innych językach, w tym również po polsku. Do wyboru masz różne formaty AI Act – PDF lub DOC.
Od kiedy obowiązuje AI Act?
Jak już było wspomniane, AI Act został przyjęty, jednak to nie koniec drogi legislacyjnej. Rozporządzenie ma zostać jeszcze formalnie zatwierdzone przez Radę UE i wejdzie w życie 20 dni po opublikowaniu go w Dzienniku Urzędowym UE. Przepisy dotyczące niedozwolonych praktyk zaczną obowiązywać po kolejnych 6 miesiącach, kodeks postępowania – po 9, a regulacje dotyczące AI ogólnego przeznaczenia – po 12. Obowiązki dotyczące systemów wysokiego ryzyka będą obowiązywać z kolei po 36 miesiącach.
Rozporządzenie zakłada wyznaczenie Europejskiej Rady ds. Sztucznej Inteligencji, a na poziomie państwowym – specjalnych organów, które będą egzekwować nowe przepisy. Każdy kraj członkowski będzie musiał dostosować swoje przepisy do wymogów AI Act.
Kto oprócz UE pracuje nad uregulowaniem AI?
Nie tylko Unia Europejska prowadzi prace nad prawem regulującym sztuczną inteligencję i jej rozwój. W USA administracja prezydenta Bidena zaproponowała kartę praw AI, której celem jest ochrona na szczeblu federalnym i stanowym “praw, możliwości lub dostępu społeczeństwa do krytycznych potrzeb”. Znaleźć tam można pięć filarów:
- Ochrona przed niebezpiecznymi lub nieskutecznymi systemami – systemy AI powinny przed wdrożeniem przejść testy i być ciągle monitorowane. Dzięki temu możliwe będzie wykazanie, że są bezpieczne i skuteczne.
- Ochrona przed dyskryminacją algorytmiczną – systemy powinny być wykorzystywane i projektowane w sprawiedliwy sposób.
- Ochrona przed nadużyciami w zakresie danych – ma to na celu zapewnienie większego bezpieczeństwa w zakresie przetwarzania oraz wykorzystywania danych przez systemy sztucznej inteligencji.
- Ochrona przed podejmowaniem działań lub decyzji przez systemy AI bez zrozumienia ich bez ludzi.
- Możliwość rezygnacji lub zastosowania środków zaradczych w celu obalenia systemów sztucznej inteligencji.
W innych krajach również zaczyna traktować się poważnie przepisy dotyczące sztucznej inteligencji. W Chinach oraz Japonii przyjęto podejście skoncentrowane na człowieku i stawiające na jego bezpieczeństwo. Brazylia, Kanada i kilka innych państw również opracowują regulacje AI. Globalnego podejścia na ten moment nie ma, jednak miejmy nadzieję, że to tylko kwestia czasu.
Czy AI Act ograniczy rozwój sztucznej inteligencji?
Unijne instytucje podkreślają, że regulacje zawarte w AI Act dotyczą głównie komercyjnych zastosowań sztucznej inteligencji i nie mają na celu ograniczania badań naukowych. Najważniejsze staje się zastosowanie rozwiązań uniemożliwiających wykorzystanie AI do zadań, które wzbudzają obawy, takich jak ingerowanie w prywatność.
AI Act, choć pozwoli na pewną kontrolę firm, które będą musiały raportować, jak wykorzystują sztuczną inteligencję, jest jednocześnie dość skomplikowanym dokumentem, który może ustawić poprzeczkę dość wysoko, co, jak twierdzą niektórzy, może ograniczyć innowacje.
Warto zadać sobie pytanie, czy spowolnienie rozwoju AI, jednak bez ryzyka nadużywania systemów przez gigantów technologicznych i generowania potencjalnie niebezpiecznych sytuacji (np. dezinformacja, deep fake) byłoby faktycznie czymś złym. Choć AI Act raczej nie rozwiąże wszystkich problemów, da podstawę regulacyjną obywatelom UE, by systemy były rozwijane w ich interesie, a nie ich kosztem.
Może Cię zainteresować:
- Machine learning – definicja, przykłady i zastosowanie
- Jak działa i czym jest technologia Blockchain?
- Ciemna strona internetu, czyli Dark Web i Darknet
- Cenzura internetu to zagrożenie dla wolności słowa?
- Czym jest Big Data? Przykłady i zagrożenia
- Najlepsze generatory obrazów AI
- Ranking chatbotów AI – co oprócz ChatGPT?