Technologia AI znacznie ewoluowała w ciągu ostatnich kilku lat i, jak każda inna innowacja, powinna być zgodna z akceptacją społeczną i rządową. Dlatego kluczowe jest dostarczanie i dostosowywanie regulacji, które ustalą pewne granice, ale jednocześnie nie będą przeszkodą dla deweloperów.

Co to jest Akt o Sztucznej Inteligencji UE?

Komisja Europejska opublikowała pierwszy akt w 2021 roku, gdzie wyjaśniła podstawy korzystania z AI i odpowiedzialność za potencjalne nadchodzące zagrożenia. Ponadto podkreślono, że każda technologia AI, która pojawi się (lub już się pojawiła) w Unii Europejskiej, powinna być rozwijana z pełną odpowiedzialnością i świadomością wpływu społecznego oraz z szacunkiem dla wartości i zasad obowiązujących w Europie.

Na przestrzeni lat dokument ten był aktualizowany kilka razy, a ostatnia publikacja miała miejsce w 2023 roku. Takie dostosowania są nieuniknione, ponieważ technologia AI nadal się rozwija.

Dlatego planowane jest utworzenie jednolitego portalu prawnego AI, gdzie każdy będzie mógł sprawdzić najnowszą aktualizację i dostosować ją do własnych regulacji biznesowych. Dodatkowo będzie możliwość zgłaszania skarg na systemy AI, które nadużyły i wpłynęły na ich dane.

Regulacje UE dotyczące korzystania z technologii AI - kluczowe punkty

Teoretycznie, regulacje UE muszą zawierać szczegółowe wyjaśnienie właściwego używania technologii AI, takie jak:

  • przejrzystość: otwarty kod źródłowy dostępny dla społeczności deweloperów AI,
  • jakość danych: szczegółowe informacje o najlepszych praktykach przygotowania danych,
  • ochrona użytkownika: przypomnienie o prywatności danych i konsekwencjach, gdy dane wyciekną lub zostaną użyte niewłaściwie,
  • nadzór ludzki: kontrola nad rozwojem AI w społeczeństwie,
  • odpowiedzialność: przyjęcie odpowiedzialności za działania i decyzje.
eu-regulations

Poza tym istotny jest ogromny aspekt etyki AI i jej podstawowych wymagań.

Ponadto dokument powinien ujawnić 4 poziomy ryzyka związanego z używaniem technologii AI:

  1. Nieakceptowalne:
  • Manipulacja behawioralna ludzi lub konkretnych grup podatnych na wpływy,
  • Punktacja społeczna: klasyfikowanie osób na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych,
  • Biometryczna kategoryzacja osób.
  1. Wysokie:

Systemy AI, które wpadają w konkretne obszary, które będą musiały być zarejestrowane w bazie danych UE:

  • Zarządzanie i obsługa infrastruktury krytycznej,
  • Edukacja i szkolenia zawodowe,
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia,
  • Dostęp do i korzystanie z istotnych usług prywatnych i publicznych oraz korzyści,
  • Egzekwowanie prawa,
  • Zarządzanie migracją, azylem i kontrolą granic,
  • Pomoc w interpretacji prawa i stosowaniu prawa.
  1. Ograniczone:
  • Ujawnienie, że treść została wygenerowana przez AI,
  • Projektowanie modelu w taki sposób, aby nie generował nielegalnych treści,
  • Publikowanie streszczeń chronionych prawem autorskim danych użytych do szkolenia.
  1. Minimalne:

Prawo ma na celu oferowanie startupom i małym oraz średnim przedsiębiorstwom możliwości rozwijania i szkolenia modeli AI przed ich udostępnieniem szerokiej publiczności.

Dodatkowo, każdy z poziomów ryzyka musi zawierać konkretne informacje/dokumentację o procesie oceny oraz przykłady dobrych praktyk, takich jak:

  • rygorystyczne testowanie,
  • odpowiednia dokumentacja,
  • jasne cele biznesowe,
  • ochrona danych.

Zastanów się, czy etyka AI jest koniecznością we współczesnym świecie?

Ponadto, regulacje mogą zawierać szczegółowe instrukcje implementacji AI („co robić, a czego nie”), które są zgodne z zasadami prawa UE.

Gdy regulacje będą na końcowym etapie, komitet UE planuje również wprowadzenie opłat dla firm/deweloperów, które nadużyły technologii AI lub doprowadziły do zagrożenia społecznego na dużą skalę.

Co dalej?

Po pierwsze, regulacje muszą zostać poddane głosowaniu i zaakceptowane w komitecie UE. Niestety, takie debaty często trwają miesiącami, a nawet latami. Kolejnym krokiem jest implementacja regulacji w każdym kraju europejskim.

Potem firmy/deweloperzy będą mieli 2 lata na zaktualizowanie swoich regulacji i usług do nowych standardów. I dopiero po kolejnych 6 miesiącach rząd będzie sprawdzać i zakazywać usług AI, które nie zastosowały się do nowego prawa.

Dlaczego takie regulacje powinny być wprowadzone?

Przede wszystkim, obecnie technologia AI jest tylko częściowo regulowana, a niektóre aspekty pozostają poza prawem. Z jednej strony otwiera to wiele możliwości dla deweloperów. Ale niestety, w niewłaściwych rękach taka swoboda może być używana jako broń. I może narazić na ryzyko cały proces ochrony danych.

Ponadto należy rozważyć następujące stwierdzenia:

  • Ochrona podstawowych praw człowieka: prywatność, brak dyskryminacji i autonomia.
  • Bezpieczeństwo i niezawodność: regulacja może ustanowić standardy i wymagania dotyczące bezpieczeństwa i niezawodności systemów AI.
  • Przejrzystość i odpowiedzialność: wymagania dotyczące wyjaśniania procesów decyzyjnych AI, ujawniania źródeł danych i metod szkolenia oraz przypisywania odpowiedzialności za wyniki związane z AI.
  • Rozważania etyczne: AI budzi różne obawy etyczne, w tym kwestie związane z uczciwością, stronniczością, odpowiedzialnością oraz wpływem na miejsca pracy i społeczeństwo.
  • Promocja innowacji i konkurencyjności: jasne i spójne regulacje mogą zapewnić pewność i zaufanie biznesom i konsumentom. Mogą również pomóc zapewnić równy poziom konkurencyjności dla firm działających na rynku UE.
  • Przywództwo globalne: poprzez rozwijanie i wdrażanie solidnych regulacji dla AI, UE może zostać globalnym liderem w odpowiedzialnym zarządzaniu AI.

Author

Julia Mykhailiuk

Marketing Specialist