- Meta, die Muttergesellschaft von Facebook, hat ihre Responsible AI-Abteilung aufgeteilt, das Team, das sich der Regulierung der Sicherheit seiner KI-Projekte widmet.
- Der Großteil des verantwortlichen KI-Personals wurde dem Produktentwicklungsteam für generative KI zugewiesen.
- Der Schritt erfolgt nach einer Reihe von Entlassungen und Teamumschichtungen im Unternehmen in diesem Jahr.
Meta-CEO Mark Zuckerberg nimmt am 13. September 2023 am parteiübergreifenden AI Vision Forum des US-Senats im US-Kapitol in Washington, D.C. teil.
Stephanie Reynolds | AFP | Getty Images
Laut einem Meta-Sprecher hat Meta seine Responsible AI-Abteilung aufgelöst, das Team, das sich der Regulierung der Sicherheit seiner KI-Projekte während ihrer Entwicklung und Bereitstellung widmet.
Die meisten Mitglieder des RAI-Teams wurden in die generative KI-Produktabteilung des Unternehmens versetzt, während andere nun im KI-Infrastrukturteam arbeiten werden, sagte der Sprecher. Die Nachricht wurde zuerst veröffentlicht von die Information.
Das im Februar gegründete Geneative AI-Team konzentriert sich auf die Entwicklung von Produkten, die Sprache und Bilder generieren, um das vom Menschen geschaffene Äquivalent nachzuahmen. Dies geschah, als Unternehmen in der gesamten Technologiebranche Geld in die Entwicklung von maschinellem Lernen investierten, um im KI-Wettlauf nicht ins Hintertreffen zu geraten. Meta gehört zu den großen Technologieunternehmen, die seit Beginn des KI-Booms versuchen, aufzuholen.
Die Umstrukturierung von RAI erfolgt zu einem Zeitpunkt, an dem die Facebook-Muttergesellschaft sich dem Ende ihres „Jahres der Effizienz“ nähert, wie CEO Mark Zuckerberg es bei einer Gewinnmitteilung im Februar beschrieb. Bisher gab es im gesamten Unternehmen eine Welle von Entlassungen, Teamzusammenlegungen und Umverteilungen.
Die Gewährleistung der Sicherheit von KI ist für wichtige Akteure auf diesem Gebiet zu einer erklärten Priorität geworden, insbesondere da Regulierungsbehörden und andere Beamte den potenziellen Schäden der neuen Technologie größere Aufmerksamkeit schenken. Im Juli gründeten Anthropic, Google, Microsoft und OpenAI eine Branchengruppe, die sich speziell auf die Festlegung von Sicherheitsstandards im Zuge der Weiterentwicklung der KI konzentriert.
Obwohl die RAI-Mitarbeiter nun über die gesamte Organisation verteilt sind, stellte der Sprecher fest, dass sie weiterhin „die Entwicklung und den Einsatz verantwortungsvoller KI“ unterstützen werden.
„Wir priorisieren weiterhin die Entwicklung einer sicheren und verantwortungsvollen KI und investieren in sie“, sagte der Sprecher.