UE ustala ramy prawne dla sztucznej inteligencji

UE ustala ramy prawne dla sztucznej inteligencji. Nie wszyscy zadowoleni z ustaleń

UE ustala ramy prawne dla sztucznej inteligencji. Nie wszyscy są zadowoleni z ustaleń
Foto: Guillaume Périgois / unsplash.com

Europa osiągnęła w piątek wstępne porozumienie w sprawie nowych przepisów UE dotyczących wykorzystania sztucznej inteligencji. Przepisy te obejmują wykorzystanie sztucznej inteligencji przez rządy do nadzoru biometrycznego oraz sposób zarządzania systemami sztucznej inteligencji, takimi jak ChatGPT.

Reklama

Nowe regulacje

W wyniku tego porozumienia Unia Europejska stanie się pierwszym krajem na świecie, który przyjmie przepisy dotyczące sztucznej inteligencji. Piątkowe porozumienie między krajami UE a członkami Parlamentu Europejskiego nastąpiło po piętnastu godzinach negocjacji i dwudziestu czterech godzinach dyskusji wcześniejszego dnia. Oczekuje się, że w najbliższej przyszłości obie strony dojdą do porozumienia dotyczącego szczegółów, które będą miały wpływ na ostateczny projekt ustawy.

 „Europa zajęła pozycję pioniera, rozumiejąc znaczenie swojej roli jako podmiotu wyznaczającego światowe standardy. Tak, uważam, że to historyczny dzień” – powiedział Thierry Breton, komisarz UE

Przepisy dla podstawowych modeli AI

Umowa wymaga, aby kluczowe modele, takie jak ChatGPT i system sztucznej inteligencji ogólnego przeznaczenia (GPAI), spełniały wymogi przejrzystości przed ich wypuszczeniem na rynek. Obejmuje to przygotowanie dokumentacji technicznej, przestrzeganie unijnego prawa autorskiego oraz rozpowszechnianie szczegółowych podsumowań treści wykorzystywanych w kursach. Główne modele o dużym wpływie i wysokim ryzyku systemowym muszą przeprowadzać oceny modeli, oceniać i ograniczać ryzyko systemowe, przeprowadzać testy kontradyktoryjne, zgłaszać Komisji Europejskiej istotne incydenty, zapewniać bezpieczeństwo cybernetyczne i raportować na temat efektywności energetycznej. GPAI obciążone ryzykiem systemowym mogą opierać się na Kodeksie Postępowania, aby zapewnić zgodność z nowymi przepisami.

Nadzór, zakazy i kary

Rządy mogą wykorzystywać nadzór biometryczny w czasie rzeczywistym w miejscach publicznych, aby namierzać ofiary określonych przestępstw, zapobiegać rzeczywistym, obecnym lub domniemanym zagrożeniom, takim jak ataki terrorystyczne, a także wyszukiwać osoby podejrzane o popełnienie poważnych przestępstw.

Reklama

Porozumienie zabrania poznawczej manipulacji zachowaniem w celu ustalenia przekonań politycznych, religijnych lub filozoficznych, orientacji seksualnej i rasy, masowego usuwania wizerunków twarzy z Internetu lub monitoringu wideo, systemów ocen społecznych i kategorii biometrycznych.

Reklama

Konsumenci mają prawo do składania skarg i otrzymywania znaczących wyjaśnień, a kary za naruszenia mogą wynosić od 7,5 mln euro (8,1 mln dolarów), czyli 1,5% sprzedaży, do 35 mln euro, czyli 7% światowej sprzedaży.

Głosy niezadowolenia i cena porozumienia

Grupa biznesowa o nazwie DigitalEurope skrytykowała te przepisy, uznając je za kolejne obciążenie dla firm, obok innych niedawnych przepisów.

„Zawarliśmy porozumienie, ale jakim kosztem? W pełni poparliśmy podejście oparte na ryzyku i oparte na wykorzystaniu sztucznej inteligencji, a nie na samej technologii, ale podjęta w ostatniej chwili próba uregulowania podstawowych modeli wywróciła tę sytuację do góry nogami”, – powiedziała dyrektor generalna Cecilia Bonefeld-Dahl.

Krytyczna była także Europejska Grupa ds. Praw Cyfrowych tj. European Digital Rights.

„Trudno być podekscytowanym ustawą, która po raz pierwszy w UE podjęła kroki w celu zalegalizowania publicznego rozpoznawania twarzy na żywo w całej UE” – powiedziała starsza doradczyni ds. polityki Ella Jakubowska.

Data wejścia przepisów

Oczekuje się, że po formalnej ratyfikacji obu stron przepisy wejdą w życie na początku przyszłego roku. Powinny zacząć obowiązywać dwa lata później.

Rządy na całym świecie starają się zrównoważyć zalety tej technologii, która umożliwia pisanie kodu komputerowego, odpowiadanie na pytania i prowadzenie ludzkich rozmów, ale wymaga barier ochronnych.

Reklama

W czasie, gdy firmy takie jak OpenAI, w których Microsoft jest inwestorem, odkrywają nowe zastosowania swojej technologii, pojawiają się europejskie przepisy dotyczące sztucznej inteligencji, które budzą obawy i uznanie.

źródło: Reuters

autor: KZ | 11.12.2023, 10:30

tagi: Aktualności, Technologie, Biznes

NIE PRZEGAP

Reklama