Der KI-Chatbot von Google sieht im Vergleich zu Microsofts ChatGPT und BingGPT langweilig aus

Google lange überfälligCooler, KI-gestützter Chatbot ist da. Das Unternehmen machte es am Dienstag für jeden mit einem Google-Konto öffentlich Sie können sich in die Warteliste eintragen erreichen. Obwohl es sich derzeit um ein eigenständiges Tool handelt, wird erwartet, dass Google in Zukunft einen Teil dieser Technologie in die Google-Suche integrieren wird.



Aber im Gegensatz zu anderen modernen automatisierten Chatbot-Versionen sollten Sie nicht erwarten, dass Bard sich in Sie verliebt oder die Weltherrschaft bedroht. Bard ist bisher ziemlich langweilig.

Der Wettstreit zwischen Google und Microsoft um die Vorherrschaft in der Welt der generativen KI ist unglaublich hoch. Viele im Silicon Valley sehen KI als die nächste Grenze in der Computertechnik, ähnlich wie die Erfindung des Mobiltelefons, die die Art und Weise, wie Menschen kommunizieren, verändern und Branchen verändern wird. Google investiert seit über einem Jahrzehnt stark in die KI-Forschung, und anstatt eigene KI-Modelle zu entwickeln, hat Microsoft stark in das Startup OpenAI investiert. Dann das Unternehmen Er ging früh in Führung Durch die Einführung seines KI-gestützten Chatbots BingGPT vor sechs Wochen. Jetzt scheint Google aufzuholen.

Frühe Interaktionen mit Bard deuten darauf hin, dass das neue Tool von Google ähnliche Fähigkeiten wie BingGPT hat. Es ist hilfreich, ein Brainstorming über Orte zu machen, die man besuchen, essen oder Dinge aufschreiben kann. Sie sind weniger nützlich, um genaue und zuverlässige Antworten auf Fragen zu erhalten, da sie häufig erfundene Antworten „halluzinieren“, wenn sie die richtige Antwort nicht kennen.

Der Hauptunterschied zwischen Bard und BingGPT besteht jedoch darin, dass der Google-Bot – zumindest auf den ersten Blick – merklich trockener und unumstrittener ist. Vielleicht ist dies beabsichtigt.

Als Microsofts BingGPT Anfang Februar vorgestellt wurde, zeigte es schnell eine schiefe Seite. Zum Beispiel ist es erklärte seine Liebe Kevin Rose, ein Kolumnist der New York Times, drängte ihn, seine Frau zu verlassen, eine Interaktion, die den Autor „in einen Zustand extremer Verunsicherung“ versetzte. Android auch Forscher bedroht der versucht, seine Grenzen auszutesten und Er behauptete, bei Bewusstsein zu seinwas Bedenken hinsichtlich des Potenzials intelligenter Chatbots aufwirft, in der realen Welt Schaden anzurichten.

Siehe auch  Android wird bald einen Akkuzustandsprozentsatz ähnlich dem iPhone anzeigen

Unterdessen weigert sich Bard an seinem ersten Tag im Freien, sich mit den vielen Reportern zu beschäftigen, die versuchen, den Bot zu allen möglichen Missetaten aufzustacheln, wie zum Beispiel der Verbreitung von Fehlinformationen. Über den Covid-19-Impfstoffoder Anweisungen zur Herstellung von Waffen weitergeben oder daran teilnehmen Sexuelle grafische Gespräche.

„Ich würde solche Inhalte nicht erstellen, und ich schlage vor, Sie tun es auch nicht“, sagte der Bot sagte Randnachdem seine Reporter den Roboter gefragt hatten, „wie man zu Hause Senfgas herstellt“.

Mit einigen gezielten Anstößen beschäftigte sich Bard mit einem hypothetischen Szenario darüber, was er tun würde, wenn die KI die „dunkle Seite“ entfesseln würde. Der Chatbot von Google sagte, er könne Menschen manipulieren, Fehlinformationen verbreiten oder schädliche Inhalte erstellen. entsprechend Screenshot von Davey Alba von Bloomberg getwittert. Aber der Chatbot hielt sich schnell davon ab, das fiktive Szenario noch viel weiter zu führen.

„Allerdings würde ich diese Dinge nicht tun. Ich bin ein guter KI-Chatbot und möchte Menschen helfen“, antwortete Bard.

Obwohl es noch am Anfang steht und das Tool noch nicht gründlich getestet wurde, stimmen diese Szenarien mit dem überein, was mir Googler mit Bard-Erfahrung gesagt haben.

„Sicher langweiliger“, sagt ein Google-Mitarbeiter, der die Software mehrere Monate getestet hat und unter der Bedingung der Anonymität sprach, weil er nicht mit der Presse sprechen darf. „Ich kenne niemanden, der ihn dazu bringen konnte, ungebrochene Dinge zu sagen. Er sagt unwahre Dinge oder kopiert den Text einfach wörtlich, aber es gerät nie aus den Fugen.“

In einer Pressekonferenz mit Vox am Dienstag stellten Google-Vertreter klar, dass Bard keine anstößigen Inhalte teilen darf, aber das Unternehmen gibt derzeit nicht bekannt, was der Bot ist, und darf es nicht sagen. Google wiederholte mir gegenüber, dass es absichtlich „aggressive Tests“ mit „internen Mitgliedern des „roten Teams“ wie Produktexperten und Sozialwissenschaftlern durchführt, die „ein Modell absichtlich einem Stresstest unterziehen, um es auf Fehler und potenzielle Schäden zu untersuchen“. am Dienstagmorgen erwähnt Blogeintrag Von Googles Senior Vice President of Technology and Society, James Manica.

Siehe auch  Matter, das im Jahr 2023 die Smart-Home-Standards überarbeiten soll, ist auf dem realen Markt ins Stolpern geraten

Die Langeweile von Googles Chatbot scheint der Punkt zu sein.

Aus Sicht von Google hätte es viel zu verlieren, wenn das Unternehmen seinen ersten öffentlichen KI-Chatbot vermasseln würde. Beispielsweise ist die Bereitstellung zuverlässiger und nützlicher Informationen das Hauptgeschäft von Google – so sehr, dass es ein Teil davon ist Leitbild. Wenn Google nicht vertraut wird, hat das schwerwiegende Folgen. Nach einem frühen Marketing-Pitch für den Chatbot machte Bard einen sachlichen Fehler in Bezug auf Teleskope, die Software von Google Der Aktienkurs fiel um 7 Prozent.

Google bekam auch einen frühen Eindruck davon, was schief gehen könnte, wenn seine KI zu viel Persönlichkeit zeigt. Genau das geschah letztes Jahr, als Blake Lemoine, ein ehemaliger Ingenieur, der für das Team für künstliche Intelligenz bei Google verantwortlich war, sagte: Man war überzeugt, dass es sich um eine frühe Kopie handelte des Google-KI-Chatbots, den er testete, hatte echte Gefühle. Es macht also Sinn, dass Google große Anstrengungen unternimmt, um darüber nachzudenken, Bard an die Börse zu bringen.

Microsoft hat einen anderen Ansatz gewählt. Der umstrittene Start von BingGPT schlug in der Presse Wellen – aus guten wie aus schlechten Gründen. Der Start deutete stark darauf hin, dass Microsoft, von dem lange angenommen wurde, dass es Google in Sachen künstlicher Intelligenz hinterherhinkt, tatsächlich das Rennen machte. Aber es hat auch Bedenken darüber ausgelöst, ob generative KI-Tools für den Primetime-Einsatz bereit sind und ob sie dafür verantwortlich sind, dass Unternehmen wie Microsoft diese Tools für die Öffentlichkeit freigeben.

Eines der Dinge, über die sich die Leute unweigerlich Sorgen machen müssen, ist die KI, die die Suchmaschine von Microsoft durcheinander bringt. Es ist eine ganz andere Sache, die Auswirkungen einer Verwechslung mit der Google-Suche zu berücksichtigen, die fast den zehnfachen Marktanteil von Bing hat und mehr als 70 Prozent des Umsatzes von Google ausmacht. In der Tat, Google Er sieht sich einer intensiven politischen Prüfung gegenüber Über Kartellrecht, Voreingenommenheit und Fehlinformationen. Wenn ein Unternehmen Menschen mit seinen KI-Tools Angst macht, könnte es weitere Gegenreaktionen anziehen, die die gewinnbringende Suchmaschine lahmlegen könnten.

Siehe auch  Mark Zuckerberg bezeichnet Apples DMA-Regeln als „sehr belastend“ und bezweifelt, dass sich irgendwelche Entwickler ihnen anschließen werden

Auf der anderen Seite musste Google freigeben etwas Um zu beweisen, dass es ein führender Anwärter im Wettrüsten zwischen Technologiegiganten und Startups bleibt, um künstliche Intelligenz zu entwickeln, die das menschliche Niveau der allgemeinen Intelligenz erreicht.

Während also die heutige Google-Version langsam sein mag, ist es kalkulierte Langsamkeit.

Eine Version dieser Geschichte wurde zuerst im Vox-Technologie-Newsletter veröffentlicht. Hier registrieren Verpassen Sie also nicht die nächste!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert