Der bekannte amerikanische KI-Forscher Eliezer Yudkowsky veröffentlichte eine Kolumne im Time Magazine, in der er das Problem der rasanten Entwicklung neuronaler Netze ansprach.
Er schrieb den Artikel als Antwort auf einen offenen Brief, in dem er darum bat, das Training einer KI, die leistungsfähiger als GPT-4 ist, vorübergehend einzustellen, was bereits von fast 3.000 Menschen unterzeichnet wurde, darunter Elon Musk. Laut dem Wissenschaftler kann KI in Zukunft zu einer echten Bedrohung werden, daher lohnt es sich jetzt, eine Pause in seinem Training einzulegen und Sicherheitsprotokolle zu erstellen. Die SpielGesetz-Ausgabe zitiert den vollständigen Text der Kolumne.
Ich habe von einer Unterschrift abgesehen, weil ich denke, dass der Brief den Ernst der Lage herunterspielt. Die Schlüsselfrage ist nicht, dass die Intelligenz mit der des Menschen konkurriert, sondern was passiert, nachdem die KI eine Intelligenz erreicht hat, die der des Menschen überlegen ist. Derzeit scheint es möglich, dass das Forschungslabor [создающая ИИ] kritische Grenzen überschreitet, ohne es zu merken.
Das wahrscheinlichste Ergebnis der Schaffung einer übermenschlich intelligenten KI unter Bedingungen, die entfernt an die heutigen erinnern, wird der Tod buchstäblich aller Menschen auf der Erde sein. Nicht im Sinne von „es kann eine entfernte Möglichkeit geben“, sondern im Sinne von „das ist eine offensichtliche Sache, die passieren wird“. Es ist nicht so, dass Sie im Grunde nicht überleben könnten, indem Sie etwas viel Klügeres bauen als Sie. Der Punkt ist, dass dies [изобретение ИИ] erfordert Präzision, Vorbereitung und neue wissenschaftliche Entdeckungen.
Ohne eine solche Präzision und Vorbereitung wäre das wahrscheinlichste Ergebnis eine KI, die nicht tut, was wir wollen, und sich nicht um uns oder empfindungsfähiges Leben im Allgemeinen kümmert. Diese Art von Bedenken kann im Prinzip in die KI eingebracht werden, aber wir sind noch nicht bereit und wissen nicht, wie wir das anstellen sollen.
Das wahrscheinliche Ergebnis der Kollision der Menschheit mit der gegnerischen übermenschlichen Intelligenz wird ein Totalverlust sein. Metaphern wie „10-jähriger Junge versucht Schach gegen Stockfisch 15 zu spielen“, „11. Jahrhundert versucht gegen das 21. Jahrhundert zu kämpfen“ und „Australopithecine versucht gegen Homo sapiens zu kämpfen“ sind hier angemessen.
Um sich eine feindselige übermenschliche KI vorzustellen, müssen Sie sich nicht einen leblosen intelligenten Denker vorstellen, der im Internet lebt und bösartige E-Mails versendet. Stellen Sie sich eine ganze Alien-Zivilisation vor, die millionenfach schneller denkt als Menschen und zunächst von Computern eingeschränkt wird in einer Welt von Kreaturen, die aus ihrer Sicht sehr dumm und sehr langsam sind.
Eine ausreichend intelligente KI wird nicht lange auf engstem Raum von Computern sitzen. In der heutigen Welt können Sie DNA-Stränge per E-Mail an Labore senden, die Proteine nach Bedarf produzieren, sodass die KI, die zunächst auf das Internet beschränkt war, künstliche Lebensformen bauen oder direkt in die postbiologische molekulare Herstellung einsteigen kann.
Wenn jemand unter den gegenwärtigen Bedingungen eine zu mächtige KI baut, erwarte ich, dass jedes Mitglied der menschlichen Rasse und alles biologische Leben auf der Erde kurz danach sterben wird.
Wir haben keine Ahnung, wie wir feststellen können, ob KI-Systeme selbstbewusst sind, da wir nicht wissen, wie wir alles entschlüsseln können, was in riesigen, unverständlichen Arrays passiert [данных]. Und so können wir irgendwann unbeabsichtigt digitale Köpfe erschaffen, die wirklich bewusst sind und Rechte haben sollten, kein Eigentum.
Ich stimme zu, dass aktuelle KIs wahrscheinlich nur Selbstbewusstseinsgespräche aus ihren Trainingsdaten simulieren. Aber ich weise darauf hin, dass wir zwar wenig über die Interna dieser Systeme wissen, aber wir wissen nichts wirklich.
Wenn Menschen außerhalb der KI-Industrie zum ersten Mal von der Aussterbegefahr durch künstliche allgemeine Intelligenz hören, ist ihre Reaktion: „Vielleicht sollten wir dann keine KI bauen.“ Das zu hören, gab mir einen winzigen Hoffnungsschimmer, weil es eine einfachere, vernünftigere und ehrlich gesagt vernünftigere Antwort ist, als ich in den letzten 20 Jahren gehört habe, als ich versuchte, irgendjemanden in der Branche dazu zu bringen, dies ernst zu nehmen. .
Hier ist, was Sie wirklich tun müssen:
Das Moratorium für neue Hauptausbildungen sollte auf unbestimmte Zeit und weltweit gelten. Es sollte keine Ausnahmen geben, auch nicht für Regierungen oder Streitkräfte. Deaktivieren Sie alle großen GPU-Cluster (große Computerfarmen, in denen die leistungsstärksten KIs verbessert werden). Deaktivieren Sie alle wichtigen Tutorials. Legen Sie eine Obergrenze für die Rechenleistung fest, die zum Trainieren eines KI-Systems verwendet werden darf, und senken Sie diese in den kommenden Jahren.
Treffen Sie sofort multinationale Vereinbarungen, behalten Sie den Überblick über alle verkauften GPUs. Wenn Geheimdienste berichten, dass ein Land außerhalb des Abkommens einen GPU-Cluster aufbaut, befürchten Sie weniger eine Verletzung des Moratoriums als vielmehr einen Konflikt zwischen den Ländern. Machen Sie sich bereit, das nicht autorisierte Rechenzentrum mit einem Luftangriff zu zerstören.
Machen Sie deutlich, dass jeder, der von einem Wettrüsten spricht, ein Narr ist. In der internationalen Diplomatie muss klargestellt werden, dass die Vermeidung von KI-Aussterbeszenarien Vorrang vor der Verhinderung eines vollständigen nuklearen Austauschs hat und dass verbündete Atomnationen bereit sind, ein gewisses Risiko eines nuklearen Austauschs einzugehen, wenn dies erforderlich ist, um das Risiko einer umfassenden KI-Ausbildung zu mindern.
Wir sind nicht bereit. Und wir werden auf absehbare Zeit nicht bereit sein. Wenn wir so weitermachen, werden alle sterben, auch die Kinder, die sich das nicht ausgesucht und nichts falsch gemacht haben.
— Eliezer Yudkowsky für Time, übersetzt von baza.io

Zuvor wurde das neurale Netzwerk Midjourney aufgrund von Fälschungen bei Politikern und Prominenten bezahlt.
🧠 Man konnte ChatGPT direkt ans Gehirn schrauben
- Der Chatbot GPT-4 hat eine Person dazu verleitet, Captcha für ihn zu lösen
- Microsoft hat eine neue Bing-Suche mit…