Naukowcy wezwali do wstrzymania się od szkolenia systemów AI
Eksperci, w tym Elon Musk, wzywają do wstrzymania się od szkolenia systemów AI potężniejszych niż GPT-4.
Reklama
List otwarty Future of Life Institute
Grupa ekspertów od sztucznej inteligencji, w tym dyrektorzy branży oraz Elon Musk wzywają do sześciomiesięcznej przerwy w systemach szkoleniowych potężniejszych niż nowo wprowadzony model OpenAI GPT-4, powiedzieli w liście otwartym, powołując się na potencjalne ryzyko dla społeczeństwa i ludzkości.
List wydany przez organizację non-profit Future of Life Institute (pol. Instytut Przyszłości Życia) podpisany został przez ponad 1000 osób, w tym m.in. Elona Muska, AI Emada Mostaque – założyciela i dyrektora generalnego Stability AI, jednej z firm stojących za Stable Diffusion, a także naukowców z należącego do Alphabet DeepMind, Yoshua Bengio – kanadyjskiego informatyka, znanego ze swoich prac nad sztucznymi sieciami neuronowymi oraz głębokim uczeniem maszynowym oraz Stuarta Russella – brytyjskiego eksperta w dziedzinie sztucznej inteligencji.
Wstrzymanie rozwoju zaawansowanej sztucznej inteligencji
Naukowcy wezwali do wstrzymania rozwoju zaawansowanej sztucznej inteligencji do czasu opracowania, wdrożenia i audytu przez niezależnych ekspertów wspólnych protokołów bezpieczeństwa dla takich projektów.
„Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania” – napisano w liście.
W liście wyszczególniono również potencjalne zagrożenia dla społeczeństwa i cywilizacji ze strony konkurencyjnych dla ludzi systemów sztucznej inteligencji w postaci zakłóceń gospodarczych i politycznych oraz wezwano programistów do współpracy z decydentami w zakresie zarządzania i organów regulacyjnych.
„List nie jest doskonały, ale idea jest racjonalna: musimy zwolnić, dopóki lepiej nie zrozumiemy konsekwencji” – powiedział Gary Marcus, emerytowany profesor na Uniwersytecie Nowojorskim, który podpisał list.
Reklama
AI and autocracy may be mutually reinforcing. https://t.co/doYSmTjxPq
— Future of Life Institute (@FLIxrisk) March 24, 2023
Europol również wyraził swoje obawy
List pojawił się, gdy Europol w poniedziałek dołączył do etycznych i prawnych obaw związanych z zaawansowaną sztuczną inteligencją, taką jak ChatGPT, ostrzegając przed potencjalnym niewłaściwym wykorzystaniem systemu w próbach phishingu, dezinformacji i cyberprzestępczości.
Wyścig gigantów przyspieszył rozwój
Od czasu premiery w zeszłym roku wspierany przez Microsoft OpenAI ChatGPT skłonił rywali do przyspieszenia opracowywania podobnych dużych modeli językowych, a firmy do integracji generatywnych modeli AI w swoich produktach. Sam Altman, dyrektor generalny OpenAI, nie podpisał listu, powiedział Reuterowi rzecznik Future of Life.