Bill Gates, KI-Entwickler, wehren sich gegen Musk und Wozniak mit einem offenen Brief

McNamee gewinnt Getty Images

Wenn Sie in den letzten Tagen viel Pro-KI-Geschwätz gehört haben, sind Sie wahrscheinlich nicht allein.

KI-Entwickler, führende KI-Ethiker und sogar Microsoft-Mitbegründer Bill Gates haben die vergangene Woche damit verbracht ihre Arbeit verteidigen. Dies ist eine Antwort auf eine Datei offener Brief Letzte Woche vom Future of Life Institute veröffentlicht und von Tesla-CEO Elon Musk und Apple-Mitbegründer Steve Wozniak unterzeichnet, forderte es eine sechsmonatige Unterbrechung der Arbeit an KI-Systemen, die mit menschlicher Intelligenz konkurrieren können.

Der Brief, der inzwischen mehr als 13.500 Unterschriften hat, drückte seine Besorgnis darüber aus, dass das „gefährliche Rennen“ um die Entwicklung von Software wie ChatGPT von OpenAI, dem Chatbot Bing AI von Microsoft und Bard von Alphabet negative Folgen haben könnte, wenn es nicht kontrolliert wird, von weit verbreiteter Desinformation bis hin zu Beeinträchtigungen menschlicher Funktionen Maschinen.

Aber große Segmente der Technologiebranche, darunter mindestens eine ihrer größten Koryphäen, befinden sich im Niedergang.

„Ich glaube nicht, dass es die Herausforderungen löst, eine bestimmte Gruppe zu bitten, eine Pause einzulegen.“ sagte Gates gegenüber Reuters Montags. Gates fügte hinzu, dass es schwierig sei, in einer globalen Industrie eine Pause zu erzwingen – obwohl er zustimmte, dass die Industrie mehr Forschung brauche, um „schwierige Bereiche zu identifizieren“.

Das macht die Debatte so interessant, sagen Experten: Der offene Brief mag berechtigte Bedenken aufzeigen, aber die vorgeschlagene Lösung scheint kaum realisierbar.

Hier ist der Grund und was als nächstes passieren könnte – von staatlichen Vorschriften bis hin zu einem möglichen Botnet-Aufstand.

Die Bedenken des offenen Briefes sind relativ einfach: „In den letzten Monaten haben sich die AI Labs in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz leistungsfähigerer digitaler Gehirne befunden, die niemand – nicht einmal ihre Schöpfer – zuverlässig verstehen, vorhersagen oder Kontrolle.“

KI-Systeme sind oft mit Programmierungsfehlern und -möglichkeiten ausgestattet Datenschutzprobleme. Sie können Desinformationen weit und breit verbreiten, insbesondere wenn sie böswillig eingesetzt werden.

Und es ist leicht vorstellbar, dass Unternehmen versuchen, Geld zu sparen, indem sie menschliche Arbeitsplätze – von persönlichen Assistenten bis hin zu Kundendienstmitarbeitern – durch KI-Sprachsysteme ersetzen.

Italien hat ChatGPT aufgrund von Datenschutzproblemen, die durch die OpenAI-Datenverletzung verursacht wurden, bereits vorübergehend verboten. Die britische Regierung hat letzte Woche ihre Regulierungsempfehlungen veröffentlicht Europäische Verbraucherorganisation Er forderte die Gesetzgeber in ganz Europa auf, auch die Vorschriften zu verschärfen.

In den Vereinigten Staaten haben einige Kongressabgeordnete neue Gesetze zur Regulierung der KI-Technologie gefordert. letzter Monat , Bundeshandelskommission Sie hat Richtlinien für Unternehmen herausgegeben, die diese Chatbots entwickeln, was bedeutet, dass die Bundesregierung die KI-Systeme, die Betrüger verwenden können, genau im Auge behält.

und multi Staatliche Datenschutzgesetze Es wurde im vergangenen Jahr verabschiedet, um Unternehmen zu zwingen, offenzulegen, wann und wie ihre KI-Produkte funktionieren und wie Kunden die Möglichkeit geben, sich abzumelden Um personenbezogene Daten für automatisierte KI-Entscheidungen bereitzustellen.

Diese Gesetze sind derzeit in den Bundesstaaten Kalifornien, Connecticut, Colorado, Utah und Virginia in Kraft.

Mindestens ein KI-Sicherheits- und Forschungsunternehmen ist noch nicht besorgt: Bestehende Technologien „geben keine unmittelbare Sorge“, schrieb Anthropic aus San Francisco Blogeintrag letzter Monat.

Anthropic, das im Februar eine Investition von 400 Millionen US-Dollar von Alphabet erhalten hat, verfügt über einen KI-Chatbot. In ihrem Blogbeitrag stellte sie fest, dass zukünftige KI-Systeme im Laufe des nächsten Jahrzehnts „robuster“ werden könnten und dass der Bau von Leitplanken jetzt „dazu beitragen kann, Risiken in der Zukunft zu reduzieren“.

Das Problem: Anthropic Books: Niemand weiß genau, wie diese Barrieren aussehen könnten oder sollten.

Die Fähigkeit eines offenen Briefes, ein Gespräch über ein Thema anzuregen, sei hilfreich, sagte ein Unternehmenssprecher gegenüber CNBC Make It. Der Sprecher gab nicht an, ob Anthropic die sechsmonatige Pause unterstützen wird.

In einem Tweet am Mittwoch räumte Sam Altman, CEO von OpenAI, ein, dass ein „effektiver globaler Regulierungsrahmen einschließlich demokratischer Governance“ und „angemessene Koordination“ zwischen führenden Unternehmen für künstliche allgemeine Intelligenz (AGI) helfen könnten.

Aber Altman, dessen von Microsoft finanziertes Unternehmen ChatGPT herstellt und an der Entwicklung des KI-Chatbots von Bing beteiligt war, hat nicht angegeben, was diese Richtlinien beinhalten könnten, oder auf die Bitte von CNBC Make It um Stellungnahme zu dem offenen Brief geantwortet.

Einige Forscher werfen ein weiteres Problem auf: Die Unterbrechung der Forschung könnte den Fortschritt in einer schnelllebigen Branche ersticken und es autoritären Ländern ermöglichen, ihre eigenen KI-Systeme zu entwickeln, um voranzukommen.

Das Aufzeigen potenzieller Bedrohungen für KI kann schlechte Akteure dazu ermutigen, die Technologie für schändliche Zwecke einzusetzen, sagt Richard Sucher, KI-Forscher und CEO des KI-gestützten Suchmaschinen-Startups You.com.

Auch die Dringlichkeit dieser Drohungen wird übertrieben Fördert unnötige Hysterie Zum Thema, sagt Socher. Er fügt hinzu, dass die Vorschläge in offenen Briefen „nicht umsetzbar sind und das Problem auf der falschen Ebene angehen“.

Die verhaltene Resonanz auf den offenen Brief von KI-Entwicklern scheint darauf hinzudeuten, dass sowohl Tech-Giganten als auch Startups ihre Arbeit wahrscheinlich nicht freiwillig einstellen werden.

Die Forderung des Schreibens nach verstärkter staatlicher Regulierung scheint wahrscheinlicher, zumal der Gesetzgeber in den USA und Europa bereits auf Transparenz von KI-Entwicklern drängt.

In den USA könnte die FTC auch Regeln aufstellen, die KI-Entwickler verpflichten, neue Systeme nur mit Datensätzen zu trainieren, die keine Fehlinformationen oder implizite Voreingenommenheit enthalten, und die Tests solcher Produkte vor und nach ihrer Freigabe für die Öffentlichkeit zu verstärken, so a Bericht. Dezember Berater Von der Anwaltskanzlei Alston & Bird.

Stuart Russell, ein Informatiker der University of Berkeley und führender Forscher auf dem Gebiet der künstlichen Intelligenz, der den offenen Brief mitunterzeichnet hat, sagt, dass solche Anstrengungen unternommen werden müssen, bevor die Technologie weiter voranschreitet.

Die Pause könnte Technologieunternehmen auch mehr Zeit geben, um zu beweisen, dass ihre fortschrittlichen KI-Systeme „kein unangemessenes Risiko darstellen“, sagte Russell. sagte er CNN am Samstag.

In einem scheinen sich beide Seiten einig zu sein: Worst-Case-Szenarien für die rasante Entwicklung von KI verdienen es, verhindert zu werden. Kurzfristig heißt das, Nutzern von KI-Produkten Transparenz zu verschaffen und sie vor Betrügern zu schützen.

Langfristig könnte dies bedeuten, KI-Systeme daran zu hindern, die menschliche Intelligenz zu übertreffen, und die Fähigkeit zu erhalten, sie effektiv zu steuern.

„Sobald Sie anfangen, Maschinen zu bauen, die mit Menschen konkurrieren und sie überlisten, wird es für uns sehr schwierig zu überleben“, sagte Gates. sagte er der BBC Damals im Jahr 2015. „Es ist nur eine Zwangsläufigkeit.“

Verpassen Sie nicht: Möchten Sie klüger und erfolgreicher mit Ihrem Geld, Ihrer Arbeit und Ihrem Leben umgehen? Abonnieren Sie unseren neuen Newsletter!

Nehmen Sie an dieser Umfrage teil und teilen Sie uns mit, wie Sie Ihr Geld und Ihre Karriere auf die nächste Stufe heben möchten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert