Zaawansowanie technologii AI przeszło znaczącą ewolucję w ostatnich latach, prezentując światu przełomowe innowacje. Jednak ten postęp musi być wspierany nadzorem publicznym i rządowym. Ustanowienie ram regulacyjnych staje się kluczowe, aby zachować ograniczoną równowagę: ustalanie niezbędnych granic bez ograniczania kreatywności deweloperów.

Podstawowe informacje o regulacji w USA dotyczącej używania technologii AI

Obecnie rząd USA dopiero zaczął rozważać pomysł przygotowania takich regulacji. Ponadto Biały Dom zalecił federalnym agencjom kontrolę wszystkiego, co jest związane z technologią AI na potrzeby rządowe. Będą one odpowiedzialne za:

  • przeprowadzanie ocen ryzyka,
  • wdrażanie konkretnych środków bezpieczeństwa,
  • szczegółowe ujawniania publiczne, kiedy rząd USA używa technologii AI,
  • wyznaczanie głównych urzędników do spraw AI.

W przeciwieństwie do rządu europejskiego, Stany Zjednoczone zdecydowały się pominąć proces przygotowywania oficjalnego dokumentu i skupić się na przydzielaniu konkretnych zadań federalnym.

Dodatkowo rząd USA planuje zatrudnić około 100 specjalistów od AI, którzy będą promować bezpieczeństwo korzystania z AI.

Kluczowe punkty przygotowania regulacji w USA

W styczniu 2023 roku, NIST, agencja Departamentu Handlu USA, dobrowolnie opublikowała dokument ze standardami AI, ale podkreśliła fakt, że dokument ten nie jest obowiązkowy. Jednakże może być źródłem przydatnych informacji o rozwijaniu/używaniu/projektowaniu produktów AI zgodnie z etycznymi standardami i świadomością. Podobny dokument został również opublikowany przez Sekcję 5301.

Ponieważ wszystkie wspomniane instytuty obecnie współpracują z rządem USA, istnieje duże prawdopodobieństwo, że w ostatecznej regulacji USA dotyczącej technologii AI zostaną uwzględnione stwierdzenia z powyższych dokumentów.

Co powinno być uwzględnione w tych dokumentach?

Na podstawie już opublikowanych w USA ocen ryzyka/studiów przypadków/praktycznych porad dotyczących technologii AI, regulacja w USA zdecydowanie może zawierać informacje na temat:

  1. Wymagań bezpieczeństwa: monitoring w czasie rzeczywistym, zabezpieczenia lub inne interwencje systemu AI w celu zapobiegania zagrożeniu życia, zdrowia lub mienia ludzkiego,
  2. Oceny bezpieczeństwa: protokoły mające na celu unikanie, ochronę przed lub reagowanie na ataki przeciwko systemowi AI,
  3. Samouczków/Studiów przypadków: zrozumienie i właściwe używanie mechanizmów systemu AI,
  4. Prywatności: ochrona ludzkiej autonomii przez ochronę anonimowości, poufności i kontroli,
  5. Danych open-source: dostępne informacje o systemie AI,
  6. Systemu walidacji: demonstracja przez ciągłe testowanie lub monitorowanie potwierdzająca, że system AI działa zgodnie z zamierzeniami,
  7. Oświadczeń etycznych: rozwój technologii AI ma być zgodny z podstawami prawa ludzkiego i ochrony danych,
  8. Listy zadań dla początkujących startupów, która może zawierać:
  • wystarczającą wiedzę o systemie AI,
  • informacje o tym, jak wdrożyć testowanie, oceny, weryfikacje i procesy walidacji, aby informować decyzje zarządcze,
  • sugestie dotyczące rozwijania kultury organizacyjnej, która włącza zarządzanie ryzykiem związanym z AI,
  • oceny ryzyka.

Jako że rynek USA jest niewątpliwie liderem w rozwoju technologii AI, taka regulacja powinna być przeprowadzona jak najszybciej. Zdecydowanie pomogłoby to zapobiegać rosnącej liście zagrożeń AI na nadchodzące lata.

Author

Julia Mykhailiuk

Marketing Specialist