Das langjährige KI-Risikoteam von OpenAI wurde aufgelöst

Im Juli letzten Jahres wurde OpenAI Kündigte die Bildung eines neuen Forschungsteams an Dies würde den Weg für die Entstehung superintelligenter künstlicher Intelligenz ebnen, die in der Lage ist, ihre Schöpfer zu übertreffen und zu übertreffen. Ilya Sutskever, Chefwissenschaftler bei OpenAI und einer der Gründer des Unternehmens, wurde zum Co-Leiter dieses neuen Teams ernannt. OpenAI sagte, das Team werde 20 Prozent seiner Rechenleistung erhalten.

Das Unternehmen bestätigt nun, dass das „Hyperkompatibilitätsteam“ von OpenAI nicht mehr existiert. Dies geschah nach dem Weggang mehrerer beteiligter Forscher, der Nachricht vom Dienstag, dass Sutskever das Unternehmen verlässt, und Rücktritt Von einem anderen Teamkollegen. Die Arbeit der Gruppe wird in andere OpenAI-Forschungsbemühungen einfließen.

Sutskevers Abgang sorgte für Schlagzeilen, denn obwohl er CEO Sam Altman 2015 beim Start von OpenAI half und die Richtung der Forschung vorgab, die zu ChatGPT führte, war er auch eines der vier Vorstandsmitglieder, die Altman im November entlassen hatten. Altman wurde fünf chaotische Tage nach einer Massenrevolte von OpenAI-Mitarbeitern und der Vermittlung eines Deals, bei dem Sutskever und zwei weitere Unternehmensdirektoren den Vorstand verließen, wieder als CEO eingesetzt.

Stunden nachdem Sutskevers Abgang am Dienstag bekannt gegeben wurde, sagte Jan Lek, ein ehemaliger DeepMind-Forscher und der andere Leiter des Superalignment-Teams: Veröffentlicht am X Er resignierte.

Weder Sutskever noch Leike antworteten auf Anfragen nach Kommentaren, noch äußerten sie sich öffentlich dazu, warum sie OpenAI verlassen hatten. Sutskever leistete Unterstützung für die aktuelle OpenAI-Pipeline In einem Beitrag auf X. „Die Entwicklung des Unternehmens war geradezu wundersam, und ich bin zuversichtlich, dass OpenAI unter seiner derzeitigen Führung eine AGI entwickeln wird, die sowohl sicher als auch nützlich ist“, schrieb er.

Siehe auch  Die Bank of England hält an den Zinssätzen fest, gibt jedoch ein pessimistisches Signal hinsichtlich Senkungen

Die hervorragende Lösung des OpenAI-Teams ergänzt die jüngsten Beweise für eine Umstrukturierung innerhalb des Unternehmens nach einer Governance-Krise im vergangenen November. Im Team waren zwei Forscher, Leopold Aschenbrenner und Pavel Ismailov Es wurde abgelehnt Wegen der Weitergabe von Firmengeheimnissen die Information Ich habe es letzten Monat erwähnt. Ein weiteres Teammitglied, William Saunders, verließ OpenAI laut Angaben im Februar Posten Sie in einem Online-Forum In seinem Namen.

Zwei weitere OpenAI-Forscher, die sich mit KI-Richtlinien und -Management befassen, scheinen das Unternehmen ebenfalls kürzlich verlassen zu haben. Laut LinkedIn hat Colin O’Keefe im April seine Position als Forschungsleiter zu den Grenzen der Politik aufgegeben. Daniel Kokotaglo, ein OpenAI-Forscher, der mehrere Artikel über die Risiken leistungsfähigerer KI-Modelle mitverfasst hat, „verließ OpenAI aufgrund eines Vertrauensverlusts, dass es in der nahen Zukunft der künstlichen allgemeinen Intelligenz verantwortungsbewusst handeln würde“, heißt es in einem veröffentlichten Bericht von der OpenAI-Website. Posten in einem Online-Forum In seinem Namen. Keiner der Forscher, die offenbar gegangen waren, reagierte auf Anfragen nach Kommentaren.

OpenAI lehnte es ab, sich zum Abgang von Sutskever oder anderen Mitgliedern des Superalignment-Teams oder zur Zukunft seiner Arbeit zu langfristigen KI-Risiken zu äußern. Die Erforschung der mit leistungsfähigeren Modellen verbundenen Risiken wird nun von John Shulman geleitet, der das Team leitet, das für die Feinabstimmung der KI-Modelle nach dem Training verantwortlich ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert