Tech-Milliardär Elon Musk und Apple-Mitgründer Steve Wozniak haben ebenso unterschrieben wie Informatik-Professor Stuart Russell und der Universalgelehrte Yuval Harari: Über eintausend Expert*innen rufen Labore in aller Welt dazu auf, für mindestens sechs Monate ihre Trainings mit Systemen künstlicher Intelligenz zu pausieren, die leistungsfähiger sind als GPT-4.
Die gegenwärtigen KI-Systeme seien auf einem Niveau angekommen, das mit menschlicher Intelligenz durchaus konkurrieren könne und stelle somit eine tiefgreifende Gefahr für die gesamte Menschheit dar. "Sollten wir nichtmenschliche Intelligenzen entwickeln, die uns irgendwann überflüssig machen und ersetzen könnten? Sollten wir den Verlust der Kontrolle über unsere Zivilisation riskieren?", fragen die Unterzeichnenden und fordern: "Solche Entscheidungen dürfen nicht an Tech-Führer delegiert werden. Leistungsstarke KI-Systeme dürfen erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden."
Den offenen Brief initiierten das Future Life Institute und sein Präsident, der renommierte KI-Forscher Max Tegmark. Er ist eine Reaktion auf die sich seit Monaten überschlagenden Nachrichten zum KI-basierten Chatbot ChatGPT-3, den das US-amerikanische Unternehmen OpenAI im November 2022 der Öffentlichkeit präsentierte. Dem Sprachmodell war es etwa gelungen, Aufnahmeprüfungen für ein Medizinstudium zu bestehen oder Texte zu verfassen, die für viele kaum noch von menschlichen zu unterscheiden sind.
Vor einer Woche stellten die Entwickler eine neue und noch leistungsfähigere Version des Chatbots vor: ChatGPT-4. Im Gegensatz zu früheren Modellen ist ChatGPT-4 nicht kostenfrei zugänglich.
Dass Labore ihre Trainings mit KI-Systemen einstellen oder pausieren, gilt als ausgeschlossen. Die Unterzeichnenden des offenen Briefes fordern deshalb auch Regierungen auf, aktiv zu werden: Sie sollen ein Moratorium aufstellen und die Labore gesetzlich zu einem Trainingsstopp zwingen.
Eine solche Pause soll nach Ansicht der Unterzeichnenden genutzt werden, um eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu erstellen, die von unabhängigen Expert*innen geprüft und überwacht werden.