Microsoft hat am Donnerstag eine Reihe von Vorschriften für künstliche Intelligenz verabschiedet, da das Unternehmen auf Bedenken von Regierungen auf der ganzen Welt hinsichtlich der Gefahren der sich schnell entwickelnden Technologie reagiert.
Microsoft, das versprochen hat, künstliche Intelligenz in viele seiner Produkte zu integrieren, hat Vorschriften vorgeschlagen, die eine Bestimmung beinhalten, dass Systeme, die in kritischen Infrastrukturen verwendet werden, vollständig abgeschaltet oder verlangsamt werden können, ähnlich einem Notbremssystem in einem Zug. Das Unternehmen forderte außerdem Gesetze, die zeigen, wann zusätzliche rechtliche Verpflichtungen für ein KI-System gelten, und Etiketten, die zeigen, wann ein Bild oder Video von einem Computer generiert wurde.
„Unternehmen müssen sich verstärken“, sagte Microsoft-Präsident Brad Smith in einem Interview über die Lobbyarbeit für Vorschriften. „Die Regierung muss schneller handeln.“ Er präsentierte die Vorschläge am Donnerstagmorgen bei einer Veranstaltung in der Innenstadt von Washington einem Publikum, zu dem auch Gesetzgeber gehörten.
Der Ruf nach Regulierung durchdringt einen KI-Boom, wobei die Einführung des ChatGPT-Chatbots im November großes Interesse hervorrief. Unternehmen wie Microsoft und Alphabet, die Muttergesellschaft von Google, liefern sich seitdem einen Wettlauf um die Integration der Technologie in ihre Produkte. Das hat Bedenken geweckt, dass Unternehmen Sicherheit opfern, um vor ihren Konkurrenten zum nächsten großen Ding zu gelangen.
Der Gesetzgeber hat öffentlich Bedenken geäußert, dass diese KI-Produkte, die selbst Texte und Bilder generieren können, zu einer Lawine von Desinformation führen, von Kriminellen missbraucht werden und Menschen arbeitslos machen werden. Die Aufsichtsbehörden in Washington haben geschworen, wachsam gegenüber Betrügern zu sein, die künstliche Intelligenz nutzen, sowie gegenüber Fällen, in denen Systeme Diskriminierung aufrechterhalten oder Entscheidungen treffen, die gegen das Gesetz verstoßen.
Als Reaktion auf diese Prüfung fordern KI-Entwickler zunehmend, einen Teil der Überwachungslast der Technologie auf die Regierung abzuwälzen. Sam Altman, CEO von OpenAI, das ChatGPT herstellt und Microsoft als Investor betrachtet, sagte diesen Monat vor einem Unterausschuss des Senats, dass die Regierung die Technologie regulieren sollte.
Das Manöver spiegelt neue Forderungen nach Datenschutz- oder Social-Media-Gesetzen von Internetunternehmen wie Google und Meta, der Muttergesellschaft von Facebook, wider. In den USA reagierten die Gesetzgeber nach solchen Forderungen nur langsam, und in den letzten Jahren gab es nur wenige neue Bundesvorschriften zum Datenschutz oder zu sozialen Medien.
In dem Interview sagte Herr Smith, dass Microsoft nicht versuche, die Verantwortung für die Verwaltung neuer Technologien abzunehmen, weil es konkrete Ideen einführe und verspreche, einige davon umzusetzen, unabhängig davon, ob die Regierung Maßnahmen ergreife oder nicht.
„Es gibt kein bisschen Verantwortungsverzicht“, sagte er.
Er unterstützte die Idee, die Herr Altman während seiner Aussage vor dem Kongress befürwortete, dass eine Regierungsbehörde von Unternehmen verlangen sollte, Lizenzen für den Einsatz „leistungsstarker“ KI-Modelle zu erhalten.
„Das bedeutet, dass Sie die Regierung benachrichtigen, wenn die Tests beginnen“, sagte Herr Smith. „Sie müssen die Ergebnisse der Regierung mitteilen. Auch wenn die Veröffentlichung genehmigt wurde, ist es Ihre Pflicht, sie weiterhin zu überwachen und der Regierung Bericht zu erstatten, wenn unerwartete Probleme auftreten.“
Microsoft, das im ersten Quartal mehr als 22 Milliarden US-Dollar mit seinem Cloud-Computing-Geschäft erwirtschaftete, sagte, diese Hochrisikosysteme sollten nur in „autorisierten KI-Rechenzentren“ betrieben werden dürfen. Herr Smith räumte ein, dass das Unternehmen nicht „in einer schlechten Position“ sei, solche Dienstleistungen anzubieten, sagte jedoch, dass mehrere US-Konkurrenten diese ebenfalls anbieten könnten.
Microsoft fügte hinzu, dass Regierungen einige KI-Systeme, die in kritischen Infrastrukturen eingesetzt werden, als „hohes Risiko“ einstufen und von ihnen verlangen sollten, über „Sicherheitsbremsen“ zu verfügen. Sie verglich die Funktion mit „Bremssystemingenieure haben schon lange andere Technologien wie Aufzüge, Schulbusse und Hochgeschwindigkeitszüge eingebaut.“
Microsoft sagte, dass Unternehmen, die KI-Systeme bereitstellen, in einigen sensiblen Fällen verpflichtet sind, bestimmte Informationen über ihre Kunden zu kennen. Das Unternehmen sagte, dass zum Schutz der Verbraucher vor Täuschung KI-generierte Inhalte verpflichtet werden sollten, eine Eigenmarke zu tragen.
Herr Smith sagte, dass Unternehmen die rechtliche „Haftung“ für KI-bedingte Schäden tragen sollten. In manchen Fällen, sagte er, könnte die verantwortliche Partei der Entwickler einer App wie Microsofts Bing-Suchmaschine sein, die die zugrunde liegende KI-Technologie einer anderen Person nutzt. Er fügte hinzu, dass Cloud-Computing-Unternehmen möglicherweise für die Einhaltung von Sicherheitsvorschriften und anderen Regeln verantwortlich seien.
„Wir haben nicht unbedingt die besten Informationen oder die beste Antwort, oder wir sind möglicherweise nicht der glaubwürdigste Sprecher“, sagte Herr Smith. „Aber wissen Sie, im Moment suchen die Leute besonders in Washington, D.C. nach Ideen.“