AI Act – co zawiera i kogo dotyczy? Czy zablokuje ChatGPT?
Pojawienie się technologii OpenAI, czyli popularnego Chata GPT sprawiło, że coraz częściej mówi się o obawach związanych z korzystaniem ze sztucznej inteligencji, zarówno pod kątem społecznym i etycznym, ale też prawnym. Stworzenia pierwszego na świecie kompleksowego prawa, które ma uregulować AI i ograniczyć zagrożenia, jakie wynikają z różnych zastosowań tej technologii, podjęła się Unia Europejska. Czym jest AI Act i co zawiera?
- Czym jest AI Act?
- Dlaczego regulacja sztucznej inteligencji jest potrzebna?
- Akt w sprawie sztucznej inteligencji – co zawiera?
- Kogo dotyczy AI Act?
- Gdzie przeczytać AI Act po polsku?
- Kto oprócz UE pracuje nad uregulowaniem AI?
- Czy AI Act ograniczy rozwój sztucznej inteligencji?
Czym jest AI Act?
AI Act to pierwszy na świecie dokument, który ma na celu stworzenie regulacji dotyczących sztucznej inteligencji. Jego podstawowym celem jest gwarancja, że narzędzia AI będą rozwijane w Europie zgodnie z prawami oraz wartościami Unii, czyli między innymi bezpieczeństwem, transparentnością, prywatnością oraz dobrem społecznym.
Propozycja legislacyjna została przedstawiona przez Komisję Europejską ponad 2 lata temu, w kwietniu 2021 roku.
Jako że rozwój AI przyspieszył, prace również nabrały tempa. W czerwcu 2023 legislatorzy zatwierdzili wersję roboczą Aktu, która aktualnie jest negocjowana z Radą UE oraz państwami członkowskimi.
Dlaczego regulacja sztucznej inteligencji jest potrzebna?
Szybki rozwój AI przynosi zarówno korzyści, jak i pewne zagrożenia. Uwagę zwraca kilka kwestii, których uniknąć można dzięki odpowiedniej regulacji prawnej. Są to:
- potencjalna likwidacja milionów miejsc pracy poprzez automatyzację wielu zawodów, co może spowodować problemy gospodarcze;
- nowe zagrożenia bezpieczeństwa – np. wykorzystywanie AI do zautomatyzowanych cyberataków;
- dezinformacja – w złych rękach sztuczna inteligencja może być wykorzystywana do rozpowszechniania fałszywych informacji, deep fake’ów i manipulacji gospodarkami lub debatami politycznymi;
- wątpliwości natury etycznej – szczególnie w zastosowaniach wojskowych oraz inwigilacji; problemem jest też profilowanie ludzi;
- brak kontroli – wiele osób obawia się, że systemy AI mogą stać się zbyt autonomiczne, a tym samym przewyższyć ludzką inteligencję, co spowoduje utratę kontroli nad ich działaniami.
Akt w sprawie sztucznej inteligencji – co zawiera?
Parlament Unii Europejskiej dąży do tego, by rozwiązania oparte o AI były transparentne, bezpieczne, przyjazne dla środowiska oraz nie prowokowały dyskryminacji. Powinny być ściśle nadzorowane przez ludzi, by zapobiec potencjalnie szkodliwym skutkom. AI Act ma też na celu stworzenie jednolitej definicji sztucznej inteligencji, która mogłaby być stosowana do przyszłych systemów.
Nowe przepisy określają obowiązki zarówno dla dostawców, jak i użytkowników, a ich zastosowanie jest zależne od poziomu ryzyka, jakie wynika z użytkowania danego systemu AI. Wyróżniono 4 kategorie ryzyka:
- Nieakceptowalne – wśród zakazanych praktyk AI wyróżniono systemy, które wykorzystują techniki podprogowe i te, które mają na celu manipulowanie ludźmi, poprzez np. wykorzystywanie ich wrażliwości.
- Wysokie – są to systemy AI, które mogą mieć negatywny wpływ na podstawowe prawa obywatelskie i bezpieczeństwo, np. te wykorzystywane do wpływania na wyborców lub w systemach rekomendacyjnych w social media. Wysokim ryzykiem oznaczone zostały też takie obszary jak identyfikacja biometryczna i kategoryzacja osób czy zarządzanie migracją, azylem i kontrolą granic.
- Ograniczone – systemy AI oznaczone jako te o ograniczonym ryzyku będą musiały przestrzegać minimalnych wymagań odnoszących się do przejrzystości, dzięki czemu użytkownicy będą mogli podejmować świadome decyzje, czy chcą z nich korzystać.
- Minimalne – np. korzystanie z gier wideo, które wykorzystują sztuczną inteligencję czy filtrów spamu.
AI Act nałoży też obowiązki na dostawców modeli językowych, takich jak GPT-4. Ich dostawcy będą musieli ocenić oraz złagodzić możliwe ryzyko i zarejestrować swoje modele w bazie danych UE przed wprowadzeniem ich na rynek.
Nie spotkało się to z zadowoleniem niektórych gigantów technologicznych. Sam Altman, CEO OpenAI, stojący za ChatGPT, wyraził pewne obawy w związku z wprowadzanymi regulacjami w EU i stwierdził, że jeśli firma nie będzie w stanie im sprostać, wycofa się z Unii Europejskiej.
Kogo dotyczy AI Act?
Rozporządzenie regulujące sztuczną inteligencję ma zastosowanie zarówno do dostawców, którzy wprowadzają do użytku AI w Unii Europejskiej (także ci, którzy mają siedzibę w państwie trzecim), jak i operatorów AI, którzy korzystają z AI pod swoją kontrolą. Mogą to być osoby fizyczne lub prawne, organy publiczne, agencje i inne podmioty. Jedynym wyjątkiem jest wykorzystywanie sztucznej inteligencji w ramach osobistej działalności pozazawodowej.
Gdzie przeczytać AI Act po polsku?
Jeśli interesuje Cię treść propozycji AI Act EU, możesz go znaleźć na tej stronie. Jest to dostępny po angielsku, jak i w innych językach, w tym również po polsku. Do wyboru masz różne formaty AI Act – PDF, DOC oraz HTML. Z kolei tekst przyjęty przez PE znajduje się tutaj.
Od kiedy obowiązuje AI Act?
14 czerwca 2023 roku w Parlamencie Europejskim przyjęto projekt AI Act, co dało zielone światło do dalszych prac nad ustawą. Najpóźniej na początku 2024 roku ma odbyć się głosowanie nad jej ostateczną wersją.
Jeśli zostanie ona przyjęta, będzie obowiązywać po okresie 2-letniej karencji, co najwcześniej stanie się w 2026 roku.
Kto oprócz UE pracuje nad uregulowaniem AI?
Nie tylko Unia Europejska prowadzi prace nad prawem regulującym sztuczną inteligencję i jej rozwój. W USA administracja prezydenta Bidena zaproponowała kartę praw AI, której celem jest ochrona na szczeblu federalnym i stanowym “praw, możliwości lub dostępu społeczeństwa do krytycznych potrzeb”. Znaleźć tam można pięć filarów:
- Ochrona przed niebezpiecznymi lub nieskutecznymi systemami – systemy AI powinny przed wdrożeniem przejść testy i być ciągle monitorowane. Dzięki temu możliwe będzie wykazanie, że są bezpieczne i skuteczne.
- Ochrona przed dyskryminacją algorytmiczną – systemy powinny być wykorzystywane i projektowane w sprawiedliwy sposób.
- Ochrona przed nadużyciami w zakresie danych – ma to na celu zapewnienie większego bezpieczeństwa w zakresie przetwarzania oraz wykorzystywania danych przez systemy sztucznej inteligencji.
- Ochrona przed podejmowaniem działań lub decyzji przez systemy AI bez zrozumienia ich bez ludzi.
- Możliwość rezygnacji lub zastosowania środków zaradczych w celu obalenia systemów sztucznej inteligencji.
W innych krajach również zaczyna traktować się poważnie przepisy dotyczące sztucznej inteligencji. W Chinach oraz Japonii przyjęto podejście skoncentrowane na człowieku i stawiające na jego bezpieczeństwo. Brazylia, Kanada i kilka innych państw również opracowują regulacje AI. Globalnego podejścia na ten moment nie ma, jednak miejmy nadzieję, że to tylko kwestia czasu.
Czy AI Act ograniczy rozwój sztucznej inteligencji?
Unijne instytucje podkreślają, że regulacje zawarte w AI Act dotyczą głównie komercyjnych zastosowań sztucznej inteligencji i nie mają na celu ograniczania badań naukowych. Najważniejsze staje się zastosowanie rozwiązań uniemożliwiających wykorzystanie AI do zadań, które wzbudzają obawy, takich jak ingerowanie w prywatność.
AI Act, choć pozwoli na pewną kontrolę firm, które będą musiały raportować, jak wykorzystują sztuczną inteligencję, jest jednocześnie dość skomplikowanym dokumentem, który może ustawić poprzeczkę dość wysoko, co, jak twierdzą niektórzy, może ograniczyć innowacje.
Warto zadać sobie pytanie, czy spowolnienie rozwoju AI, jednak bez ryzyka nadużywania systemów przez gigantów technologicznych i generowania potencjalnie niebezpiecznych sytuacji (np. dezinformacja, deep fake) byłoby faktycznie czymś złym. Choć AI Act raczej nie rozwiąże wszystkich problemów, da podstawę regulacyjną obywatelom UE, by systemy były rozwijane w ich interesie, a nie ich kosztem.
Może Cię zainteresować:
- Machine learning – definicja, przykłady i zastosowanie
- Jak działa i czym jest technologia Blockchain?
- Ciemna strona internetu, czyli Dark Web i Darknet
- Cenzura internetu to zagrożenie dla wolności słowa?
- Czym jest Big Data? Przykłady i zagrożenia
- Najlepsze generatory obrazów AI
- Ranking chatbotów AI – co oprócz ChatGPT?