Anthropic bringt öffentlich ein KI-Tool auf den Markt, das den Mauszeiger eines Benutzers steuern kann

Ein Wettrüsten und eine Abrissbirne

Konkurrierende Unternehmen wie OpenAI arbeiten an ähnlichen Tools, haben diese jedoch noch nicht der Öffentlichkeit zugänglich gemacht. Es handelt sich um ein Wettrüsten, da erwartet wird, dass diese Tools innerhalb weniger Jahre große Einnahmen generieren, wenn sie sich wie erwartet weiterentwickeln.

Es besteht die Überzeugung, dass diese Tools letztendlich viele der untergeordneten Aufgaben in Bürojobs automatisieren können. Es kann auch ein nützliches Werkzeug für Entwickler sein, da es „sich wiederholende Aufgaben automatisieren“ und mühsame Qualitätssicherungs- und Optimierungsarbeiten vereinfachen kann.

Dies ist seit langem Teil der Botschaft von Anthropic an Investoren: Seine KI-Tools können große Teile mancher Bürojobs effizienter und kostengünstiger erledigen als Menschen. Das öffentliche Testen der PC-Funktion ist ein Schritt zur Erreichung dieses Ziels.

Wir sind uns natürlich der anhaltenden Debatte über diese Art von Werkzeugen bewusst: „Es ist nur ein Werkzeug, das den Menschen die Arbeit erleichtert“ und „Es wird Menschen in verschiedenen Branchen wie eine Abrissbirne arbeitslos machen“ – beides kann bis zu einem gewissen Grad passieren. Es kommt nur darauf an, wie hoch das Verhältnis sein wird, und das kann je nach Situation oder Branche variieren.

Es gibt jedoch viele berechtigte Bedenken hinsichtlich der weit verbreiteten Einführung dieser Technologie. Zu seiner Ehre muss man sagen, dass Anthropic versucht hat, einigen dieser Dinge zuvorzukommen, indem es von Anfang an Sicherheitsvorkehrungen getroffen hat. Das Unternehmen nannte in seinem Blogbeitrag einige Beispiele:

Unsere Teams haben Klassifizierungstools und andere Methoden entwickelt, um diese Art von Verstößen zu melden und abzumildern. Angesichts der bevorstehenden US-Wahlen sind wir in erhöhter Alarmbereitschaft hinsichtlich Missbrauchsversuchen, die als Untergrabung des Vertrauens der Öffentlichkeit in Wahlprozesse wahrgenommen werden könnten. Obwohl die Nutzung von Computern noch nicht weit genug fortgeschritten ist oder in einem Ausmaß betrieben werden kann, das im Vergleich zu den derzeitigen Möglichkeiten erhöhte Risiken mit sich bringen würde, haben wir Maßnahmen zur Überwachung eingerichtet, wenn Claude zur Teilnahme an wahlbezogenen Aktivitäten aufgefordert wird, sowie Systeme zur Überwachung Claudes Entfernung von wahlbezogenen Aktivitäten wie der Erstellung und Veröffentlichung von Inhalten in sozialen Medien, der Registrierung von Webdomänen oder der Interaktion mit Regierungswebsites.

Diese Schutzmaßnahmen sind möglicherweise nicht perfekt, da es möglicherweise kreative Möglichkeiten gibt, sie oder andere unbeabsichtigte Folgen oder Missbrauch, die noch nicht entdeckt wurden, zu umgehen.

Siehe auch  AMD RDNA 3 „Navi 3X“ GPUs verfügen über doppelt so viel Cache pro Recheneinheit und Shader-Matrix

Derzeit stellt Anthropic die Benutzerfreundlichkeit von Computern auf die Probe, um zu sehen, welche Probleme auftreten, und arbeitet mit Entwicklern zusammen, um seine Fähigkeiten zu verbessern und positive Einsatzmöglichkeiten zu finden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert