W liście otwartym czołowi aktorzy branży technologicznej wezwali do natychmiastowego wstrzymania rozwoju sztucznej inteligencji ze względu na zagrożenia dla społeczeństwa. Według nich stale rosnąca konkurencja prowadzi do tego, że kontrola wymyka się im z rąk i tworzy potężny cyfrowy umysł, którego zachowania nawet sami twórcy nie są już w stanie zrozumieć, przewidzieć i kontrolować.

Dokument opublikowany przez Future of Life Institute podpisało około tysiąca osób, w tym Elon Musk, właściciel Twittera, założyciel Tesli i Steve Wozniak, współzałożyciel Apple.

Zgodnie z dokumentem

programiści powinni czasowo wstrzymać rozwój sztucznej inteligencji (Artificial Intelligence – AI), procesu uczenia się urządzeń, których wydajność przewyższa wydajność tzw. systemu GPT-4, na czasowy okres 6 miesięcy.

GPT-4 to najnowszy możliwy do nauczenia model firmy deweloperskiej OpenAI, który pokazuje wydajność na poziomie człowieka w oparciu o szereg profesjonalnych i naukowych ocen wydajności.

Zgodnie z listem wysokowydajne systemy sztucznej inteligencji można opracować dopiero po tym, jak „będziemy pewni, że ich efekty są pozytywne, a ryzyko, jakie stwarzają, można kontrolować”.

Zwracają też uwagę na to, że

obecnie nikt nie jest w stanie zrozumieć, przewidzieć i niezawodnie kontrolować wysokowydajnych urządzeń, które są opracowywane w laboratoriach sztucznej inteligencji.

W listopadzie ubiegłego roku miał miejsce niemal „wyścig zbrojeń” między dużymi firmami IT zaangażowanymi w rozwój sztucznej inteligencji po tym, jak OpenAI wypuściło swojego nowego chatbota, ChatGPT, który jest w stanie interaktywnie zarządzać i stosować wprowadzane informacje, jednocześnie wykorzystując modele interpretacji do automatyzacji ciągłej komunikacji z użytkownikami.

Oprócz OpenAI głównymi graczami w rywalizacji między firmami są Google i Microsoft, ale nad podobną technologią pracują także IBM, Amazon, Baidu i Tencent. Pismo na to wskazuje

stale rosnąca konkurencja prowadzi do tego, że kontrola wymyka się im z rąk i tworzy cyfrowy umysł o mocy, której zachowania nawet sami twórcy nie są już w stanie zrozumieć, przewidzieć i kontrolować.

Eksperci ds. sztucznej inteligencji wyrazili swoje obawy, że nowe narzędzia sztucznej inteligencji mogą, poprzez ich procesy uczenia się, stać się zdolne do udzielania stronniczych odpowiedzi, rozpowszechniania fałszywych informacji i naruszania praw konsumentów do prywatności.

MTI

Zdjęcie: Pixabay