KI so gefährlich wie ein Atomkrieg oder eine Pandemie?
Immer mehr führende Experten weisen darauf hin, dass Risiken Künstlicher Intelligenz möglicherweise unterschätzt werden. Sie stufen durch KI ausgelöste Gefahren ähnlich hoch wie einen Atomkrieg oder Pandemien ein.
Ein Satz mit dramatischer Aussage
Erst kürzlich gaben Experten über Risiken durch Künstliche Intelligenz eine Stellungnahme ab, die sich jedoch nur auf einen Satz beschränkt. Ihrer Aussage zufolge verweisen die Spezialisten auf folgendes:
Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien oder Atomkrieg.
Persönlichkeiten von Rang und Namen
Die Stellungnahme unterschrieb beispielsweise Sam Altman, Vorgesetzter des ChatGPT-Erfinders OpenAI. Dessen entwickelter Chatbot ChatGPT ist dafür geeignet, um Sätze auf vergleichbar menschlichem Niveau zu formulieren.
Zusätzlich wurde der Appell ebenfalls durch den Forscher Geoffrey Hinton und Demis Hassabis unterzeichnet. Hassabis ist Chef der Google-Schwesterfirma DeepMind, die auf Künstliche Intelligenz spezialisiert ist.
Der drohende Beginn eines neuen Zeitalters
Die Stellungnahme wurde auf der Website einer Nonprofit-Organisation publiziert. Im Rahmen der Stellungnahme verweisen die Experten auf etwaige durch KI ausgelöste Risiken, darunter eine Konzeption neuer Atomwaffen oder einen Einsatz von KI im Zuge der Kriegsführung.
Darüber hinaus warnt das Zentrum für KI-Sicherheit in San Francisco vor einer Verbreitung von Fake-News.
Eine Verbreitung von Falschinformationen könnte durch die Technologie forciert werden. Zudem sprechen die Spezialisten von einem Zeitalter, in dem sich die Menschheit zunehmend von Maschinen abhängig macht.
Zunehmende Skepsis gegenüber KI
Die Stellungnahme ist nicht die erste Warnung vor möglichen Konsequenzen eines zunehmenden Erfolgszugs von KI. Bereits vor einigen Wochen veröffentlichte eine andere Organisation einen offenen Brief, den unter anderem Tech-Milliardär Elon Musk unterschrieb.
Darin schlugen die Initiatoren eine sechsmonatige Pause für die Entwicklung von Künstlicher Intelligenz vor. Die Auszeit sollen alle Beteiligten dafür nutzen, um neue Regulierungsansätze für die Technologie auszuarbeiten. Kurze Zeit später stellte sich übrigens heraus, dass Musk selbst bereits eine eigene KI-Firma ins Leben rief.