Naukowcy wezwali do wstrzymania się od szkolenia systemów AI

Naukowcy wezwali do wstrzymania się od szkolenia systemów AI

Eksperci, w tym Elon Musk, wzywają do wstrzymania się od szkolenia systemów AI potężniejszych niż GPT-4.

Naukowcy wezwali do wstrzymania się od szkolenia systemów AI
Foto: aytuguluturk / pixabay

Reklama

List otwarty Future of Life Institute

Grupa ekspertów od sztucznej inteligencji, w tym dyrektorzy branży oraz Elon Musk wzywają do sześciomiesięcznej przerwy w systemach szkoleniowych potężniejszych niż nowo wprowadzony model OpenAI GPT-4, powiedzieli w liście otwartym, powołując się na potencjalne ryzyko dla społeczeństwa i ludzkości.

List wydany przez organizację non-profit Future of Life Institute (pol. Instytut Przyszłości Życia) podpisany został przez ponad 1000 osób, w tym m.in. Elona Muska, AI Emada Mostaque – założyciela i dyrektora generalnego Stability AI, jednej z firm stojących za Stable Diffusion, a także naukowców z należącego do Alphabet DeepMind, Yoshua Bengio – kanadyjskiego informatyka, znanego ze swoich prac nad sztucznymi sieciami neuronowymi oraz głębokim uczeniem maszynowym oraz Stuarta Russella – brytyjskiego eksperta w dziedzinie sztucznej inteligencji.

Wstrzymanie rozwoju zaawansowanej sztucznej inteligencji

Naukowcy wezwali do wstrzymania rozwoju zaawansowanej sztucznej inteligencji do czasu opracowania, wdrożenia i audytu przez niezależnych ekspertów wspólnych protokołów bezpieczeństwa dla takich projektów.

„Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania” – napisano w liście.

W liście wyszczególniono również potencjalne zagrożenia dla społeczeństwa i cywilizacji ze strony konkurencyjnych dla ludzi systemów sztucznej inteligencji w postaci zakłóceń gospodarczych i politycznych oraz wezwano programistów do współpracy z decydentami w zakresie zarządzania i organów regulacyjnych.

„List nie jest doskonały, ale idea jest racjonalna: musimy zwolnić, dopóki lepiej nie zrozumiemy konsekwencji” – powiedział Gary Marcus, emerytowany profesor na Uniwersytecie Nowojorskim, który podpisał list.

Reklama

Europol również wyraził swoje obawy

List pojawił się, gdy Europol w poniedziałek dołączył do etycznych i prawnych obaw związanych z zaawansowaną sztuczną inteligencją, taką jak ChatGPT, ostrzegając przed potencjalnym niewłaściwym wykorzystaniem systemu w próbach phishingu, dezinformacji i cyberprzestępczości.

Wyścig gigantów przyspieszył rozwój

Od czasu premiery w zeszłym roku wspierany przez Microsoft OpenAI ChatGPT skłonił rywali do przyspieszenia opracowywania podobnych dużych modeli językowych, a firmy do integracji generatywnych modeli AI w swoich produktach. Sam Altman, dyrektor generalny OpenAI, nie podpisał listu, powiedział Reuterowi rzecznik Future of Life.

 

źródło: Reuters

autor: KZ | 29.03.2023, 08:45

tagi: Aktualności, Technologie, Biznes

Reklama

NIE PRZEGAP

NIE PRZEGAP

W tematem.pl

Reklama