Das vom Future of Life Institute veröffentlichte Dokument wurde von etwa tausend Menschen unterzeichnet, darunter Elon Musk, der Besitzer von Twitter, der Gründer von Tesla, und Steve Wozniak, der Mitbegründer von Apple.
Laut Dokument
Entwickler sollten die Entwicklung künstlicher Intelligenz (Artificial Intelligence – AI), den Lernprozess von Geräten, deren Leistung die des sogenannten GPT-4-Systems übersteigt, vorübergehend für einen vorübergehenden Zeitraum von 6 Monaten stoppen.
GPT-4 ist das neueste lernbare Modell der OpenAI-Entwicklungsfirma, das die Leistung auf menschlicher Ebene basierend auf einer Reihe professioneller und wissenschaftlicher Leistungsbewertungen zeigt.
Dem Schreiben zufolge können Hochleistungssysteme für künstliche Intelligenz erst entwickelt werden, wenn „wir sicher sein können, dass ihre Auswirkungen positiv sind und das von ihnen ausgehende Risiko beherrscht werden kann“.
Sie weisen auch darauf hin, dass
Derzeit kann niemand die Hochleistungsgeräte verstehen, vorhersagen und zuverlässig steuern, die in Labors für künstliche Intelligenz entwickelt werden.
Im vergangenen November fand ein fast „Wettrüsten“ zwischen den großen IT-Unternehmen statt, die an der Entwicklung künstlicher Intelligenz beteiligt waren, nachdem OpenAI seinen neuen Chatbot ChatGPT veröffentlicht hatte, der in der Lage ist, eingegebene Informationen interaktiv zu verwalten und anzuwenden, während Interpretationsmodelle zur Automatisierung der kontinuierlichen Kommunikation verwendet werden mit Benutzern.
Hauptakteure im Wettbewerb der Unternehmen sind neben OpenAI Google und Microsoft, aber auch IBM, Amazon, Baidu und Tencent arbeiten an ähnlichen Technologien. Darauf weist der Brief hin
die immer stärker werdende Konkurrenz führt dazu, dass ihnen die Kontrolle aus den Händen gleitet und ein digitaler Verstand mit einer Macht entsteht, dessen Verhalten selbst die Schöpfer selbst nicht mehr verstehen, vorhersagen und kontrollieren können.
Experten für künstliche Intelligenz haben ihre Besorgnis darüber geäußert, dass neue Tools für künstliche Intelligenz durch ihren Lernprozess in der Lage sein könnten, voreingenommene Antworten zu geben, falsche Informationen zu verbreiten und die Datenschutzrechte der Verbraucher zu verletzen.
MTI
Foto: Pixabay