UE a sztuczna inteligencja: zakazać czy kształtować?
15 kwietnia 2023Włoski urząd ochrony danych Garante posunął się pod koniec marca do tymczasowego zakazu używania aplikacji ChatGPT. Oprogramowanie, które może wykorzystywać sztuczną inteligencję do tworzenia tekstów podobnych do ludzkich i nowych programów komputerowych, wydawało się włoskim urzędnikom podejrzane. Garante jednak nie zajmuje się wykorzystaniem sztucznej inteligencji (AI), czyli próbą przeniesienia ludzkiego uczenia się i myślenia do komputera i nadania mu w ten sposób inteligencji, ale głównie ochroną danych. Organ domaga się, aby twórca oprogramowania, firma OpenAI, za którą stoi amerykańska korporacja internetowa Microsoft, poinformowała swoich klientów o tym, co dzieje się z ich danymi w ChatGPT.
Zdaniem Garante, Microsoft powinien również uzyskać zgodę klientów, jeśli dane miałyby zostać wykorzystane do dalszego rozwoju oprogramowania, tj. do umożliwienia mu uczenia się. Ponadto należałoby uniemożliwić dostęp dzieciom poniżej 13 roku życia. Jeśli warunki zostaną spełnione do końca kwietnia, to – jak twierdzi Garante w komunikacie prasowym – aplikacja ChatGPT będzie mogła być ponownie publicznie udostępniona we Włoszech. Firma OpenAI z San Francisco obiecuje pełną współpracę.
Regulacje prawdopodobnie w 2025 roku
Tymczasem Hiszpania i Francja również zgłosiły podobne obawy dotyczące ChatGPT. Nadal nie ma ogólnoeuropejskich regulacji dotyczących sposobu postępowania z AI i jej zastosowania w oprogramowaniu i produktach takich, jak pojazdy samojezdne, technologia medyczna lub techniki nadzoru. Dwa lata temu Komisja UE przedstawiła odpowiednią propozycję legislacyjną, która wciąż jest przedmiotem dyskusji w Parlamencie Europejskim. Następnie państwa członkowskie UE muszą wyrazić zgodę.
– Prawo dotyczące AI będzie mogło faktycznie wejść w życie prawdopodobnie z początkiem 2025 roku. Takie osiągnięcia, jak ChatGPT, dwa lata temu nie były jeszcze znane na rynku, a w momencie wejścia w życie nowego prawa mogą być jeszcze bardziej zaawansowane – mówi europoseł Axel Voss (CDU).
– Rozwój jest w rzeczywistości tak szybki, że gdy prawo wejdzie w życie, duża jego część nie będzie pasować do aktualnej sytuacji – powiedział DW Axel Voss. Od lat zajmuje się sztuczną inteligencją z ramienia chrześcijańsko-demokratycznej grupy parlamentarnej i jest czołowym autorem unijnego „prawa o sztucznej inteligencji”.
Klasy ryzyka dla AI
To, czy aplikacja taka, jak generator tekstu ChatGPT, byłaby w ogóle objęta przepisami UE, jest wątpliwe. Projekt ustawy dzieli programy AI na kilka kategorii, od „niedopuszczalnych” do „nieszkodliwych”.
Tylko aplikacje o wysokim i średnim ryzyku mają podlegać specjalnym zasadom dotyczącym dokumentacji algorytmów, przejrzystości i ujawniania wykorzystania danych. Zakazane mają być niektóre aplikacje rejestrujące zachowania społeczne ludzi w celu przewidywania i oceny działań, klasyfikacja i przydzielanie ludzi do określonych klas (social scoring) oraz pewne obszary rozpoznawania twarzy. Nadal sporne jest, w jakim stopniu ludzkie emocje mogą być rejestrowane lub symulowane przez AI. Dokładnie to, jak powinny wyglądać te klasy ryzyka, jest obecnie wciąż przedmiotem dyskusji w Parlamencie UE.
– Właściwie z powodów konkurencyjnych i dlatego, że już jesteśmy opóźnieni, potrzebujemy więcej ducha optymizmu, aby intensywniej zajmować się AI – mówi Axel Voss. Podkreśla, że większość europosłów „próbuje wszystko wykluczyć”, kierując się obawami i lękami. Urzędy ds. ochrony danych w krajach członkowskich UE wzywają do niezależnego nadzoru nad aplikacjami AI i dalszego dostosowania prawa ochrony danych.
Czy aplikacja ChatGPT jest dobra czy zła?
Natasha Crampton, dyrektor generalna ds. sztucznej inteligencji w firmie macierzystej ChatGPT, Microsoft, przekonywała w wywiadach, że regulacja powinna skupić się na „aplikacjach wysokiego ryzyka”. Ale nie obejmowało to ogólnych algorytmów, które mogłyby pisać złożone teksty i nowe oprogramowanie.
The Future of Life Institute, think tank badający AI, nie zgadza się z tym. Jego dyrektor ds. polityki, Mark Brakel, powiedział DW, że szczególnie ogólne aplikacje AI, które używają GPT jako podstawy, muszą być regulowane. Mogą one być wbudowane w setki tysięcy aplikacji. Chatbot naśladujący ludzką komunikację to tylko mała próbka możliwych ryzykownych aplikacji, powiedział.
– To, co nas martwi jako organizację, to znacznie bardziej złożone zagrożenia. Technologia GPT jest w stanie pokazać ludziom, jak zbudować broń biologiczną w krótkim czasie. Istnieje duże ryzyko, które wstrząsa naszym rozumieniem prawdy, ponieważ AI może generować duże ilości fałszywych informacji, ale wyglądają one tak, jakby pochodziły na przykład z Deutsche Welle – powiedział ekspert.
– Komisja UE i Parlament starają się znaleźć równowagę między ochroną konsumentów, regulacją a swobodnym rozwojem biznesu i badań. W końcu „sztuczna inteligencja” oferuje ogromne możliwości jako siła napędowa zdigitalizowanego społeczeństwa i gospodarki – mówi Thierry Breton, komisarz UE odpowiedzialny za politykę przemysłową.
UE nie chce wypychać twórców i dostawców AI z Europy, a wręcz przeciwnie – promować ich i zachęcać do osiedlania się w UE, powiedział Breton dwa lata temu podczas prezentacji ustawy o AI. – Musimy zapewnić, że UE nie jest zależna w tym procesie od zagranicznych lub indywidualnych dostawców – domagał się Thierry Breton. Dane przemysłowe potrzebne do AI powinny być gromadzone, przechowywane i przetwarzane w UE.
Deweloperzy musieliby sprawdzić każdą indywidualną aplikację pod kątem jej ryzyka. – To zarządzanie ryzykiem musi być obowiązkowe, a wyniki muszą być publikowane – sugeruje Mark Brakel i dodaje, że firmy czasami już nie wiedzą, co ich AI może wyprodukować, a same są zaskoczone wynikami.
– Chatboty doprowadziły na przykład mężczyznę w Belgii do samobójstwa lub zachęcały nieletnich do uprawiania seksu z dorosłymi – podkreślił.
„Ernie" nadchodzi
W przypadku ChatGPT, który wywołuje gorące dyskusje w Europie, można zauważyć, że został opracowany w USA do użytku na całym świecie. OpenAI będzie miał wkrótce konkurencję ze strony amerykańskich firm takich, jak Google czy Twitter Elona Muska, które podobno pracują nad chatbotem.
Chińskie kierownictwo państwowe określiło, że tamtejsze firmy powinny uruchomić aplikację AI o podobnych funkcjach. Chiński bot firmy Baidu ma się nazywać „Ernie”. A w Europie? Według branżowego portalu „futurezone” Europa planuje badania, ale nie ma własnego produktu.