Dokument opublikowany przez Future of Life Institute podpisało około tysiąca osób, w tym Elon Musk, właściciel Twittera, założyciel Tesli i Steve Wozniak, współzałożyciel Apple.
Zgodnie z dokumentem
programiści powinni czasowo wstrzymać rozwój sztucznej inteligencji (Artificial Intelligence – AI), procesu uczenia się urządzeń, których wydajność przewyższa wydajność tzw. systemu GPT-4, na czasowy okres 6 miesięcy.
GPT-4 to najnowszy możliwy do nauczenia model firmy deweloperskiej OpenAI, który pokazuje wydajność na poziomie człowieka w oparciu o szereg profesjonalnych i naukowych ocen wydajności.
Zgodnie z listem wysokowydajne systemy sztucznej inteligencji można opracować dopiero po tym, jak „będziemy pewni, że ich efekty są pozytywne, a ryzyko, jakie stwarzają, można kontrolować”.
Zwracają też uwagę na to, że
obecnie nikt nie jest w stanie zrozumieć, przewidzieć i niezawodnie kontrolować wysokowydajnych urządzeń, które są opracowywane w laboratoriach sztucznej inteligencji.
W listopadzie ubiegłego roku miał miejsce niemal „wyścig zbrojeń” między dużymi firmami IT zaangażowanymi w rozwój sztucznej inteligencji po tym, jak OpenAI wypuściło swojego nowego chatbota, ChatGPT, który jest w stanie interaktywnie zarządzać i stosować wprowadzane informacje, jednocześnie wykorzystując modele interpretacji do automatyzacji ciągłej komunikacji z użytkownikami.
Oprócz OpenAI głównymi graczami w rywalizacji między firmami są Google i Microsoft, ale nad podobną technologią pracują także IBM, Amazon, Baidu i Tencent. Pismo na to wskazuje
stale rosnąca konkurencja prowadzi do tego, że kontrola wymyka się im z rąk i tworzy cyfrowy umysł o mocy, której zachowania nawet sami twórcy nie są już w stanie zrozumieć, przewidzieć i kontrolować.
Eksperci ds. sztucznej inteligencji wyrazili swoje obawy, że nowe narzędzia sztucznej inteligencji mogą, poprzez ich procesy uczenia się, stać się zdolne do udzielania stronniczych odpowiedzi, rozpowszechniania fałszywych informacji i naruszania praw konsumentów do prywatności.
MTI
Zdjęcie: Pixabay