Am Ende der I/O, der jährlichen Entwicklerkonferenz von Google im Shoreline Amphitheatre in Mountain View, verriet Google-CEO Sundar Pichai, dass das Unternehmen 121 Mal „KI“ gesagt habe. Dies war im Wesentlichen der Kern der zweistündigen Keynote von Google – die Einführung von KI in alle Apps und Dienste von Google, die von mehr als zwei Milliarden Menschen auf der ganzen Welt genutzt werden. Hier finden Sie alle wichtigen Updates, die Google auf der Veranstaltung angekündigt hat.
Gemini 1.5 Flash- und Gemini 1.5 Pro-Updates
Google hat ein völlig neues KI-Modell namens Gemini 1.5 Flash angekündigt, das seiner Meinung nach auf Geschwindigkeit und Effizienz optimiert ist. Der Flash liegt zwischen dem Gemini 1.5 Pro und dem Gemini 1.5 Nano, dem kleinsten Modell des Unternehmens, das nativ auf dem Gerät läuft. Google gab an, Flash entwickelt zu haben, weil die Entwickler ein leichteres, kostengünstigeres Modell als Gemini Pro für die Erstellung von KI-gestützten Apps und Diensten wollten und gleichzeitig einige Dinge wie ein Millionen Zeichen langes Kontextfenster beibehalten wollten, das Gemini Pro von Konkurrenzmodellen unterscheidet. Später in diesem Jahr wird Google das Gemini-Kontextfenster auf 2 Millionen Token verdoppeln, was bedeutet, dass es in einem Atemzug 2 Stunden Video, 22 Stunden Audio und mehr als 60.000 Zeilen Code oder mehr als 1,4 Millionen Wörter verarbeiten kann . die Zeit. .
Astra-Projekt
Google stellte Project Astra vor, eine frühe Version eines globalen KI-gestützten Assistenten, der laut Demis Hassabis, CEO von Googles DeepMind, Googles Version eines KI-Agenten ist, „der im Alltag nützlich sein könnte“.
In einem Video, das laut Google in einer einzigen Einstellung gefilmt wurde, bewegt sich ein Astra-Nutzer durch Googles Büro in London, hält sein Telefon in der Hand und richtet die Kamera auf verschiedene Dinge – einen Lautsprecher, einen Code auf einem Whiteboard, außerhalb eines Fensters – und führt eine natürliche Unterhaltung mit der App darüber, wie es aussieht. Und in einem der beeindruckendsten Momente des Videos teilt sie dem Benutzer korrekt mit, wo sie zuvor ihre Brille gelassen hat, ohne dass der Benutzer jemals ihre Brille abhebt.
Das Video endet mit einer Überraschung: Als der Benutzer die fehlende Brille findet und aufsetzt, erfahren wir, dass sie über ein eingebautes Kamerasystem verfügt und mithilfe von Project Astra nahtlos ein Gespräch mit dem Benutzer führen kann, was darauf hindeuten könnte Google arbeitet möglicherweise an einem Konkurrenten für Metas Ray-Ban-Smart-Brille.
Fragen Sie Google Bilder
Google Fotos war bereits intelligent, wenn es um die Suche nach bestimmten Fotos oder Videos ging, aber mit KI geht Google noch einen Schritt weiter. Wenn Sie Google One-Abonnent in den USA sind, können Sie Google Fotos eine komplexe Frage wie „Zeigen Sie mir das beste Foto aus jedem Nationalpark, den Sie besucht haben“ stellen, wenn die Funktion in den nächsten Jahren eingeführt wird Monate. Google Fotos verwendet Ihre GPS-Informationen sowie sein eigenes Urteil darüber, was „am besten“ ist, um Ihnen Optionen anzubieten. Sie können Google Fotos auch bitten, Bildunterschriften für die Veröffentlichung von Fotos in sozialen Medien zu erstellen.
Sehen und vorstellen 3
Die neuen KI-gestützten Medienerstellungs-Engines von Google heißen Veo und Imagine 3. Veo ist Googles Antwort auf Sora von OpenAI. Google sagte, es könne „hochwertige“ 1080p-Videos produzieren, die „länger als eine Minute“ dauern können, und filmische Konzepte wie Zeitraffer verstehen.
Mittlerweile ist Imagen 3 ein Text-zu-Bild-Generator, von dem Google behauptet, dass er Text besser verarbeitet als sein Vorgänger Imagen 2. Das Ergebnis ist das qualitativ hochwertigste Text-zu-Bild-Modell des Unternehmens mit einem „erstaunlichen Detaillierungsgrad“ für „realistisch“. , lebensechte Bilder.“ und weniger Artefakte – was es im Wesentlichen mit DALLE-3 von OpenAI konkurriert.
Große Updates für die Google-Suche
Google nimmt große Änderungen an der grundsätzlichen Funktionsweise der Suche vor. Die meisten der heute angekündigten Updates umfassen die Möglichkeit, wirklich komplexe Fragen zu stellen („Finden Sie die besten Yoga- oder Pilates-Studios in Boston und sehen Sie sich Details zu Angeboten und Gehzeiten von Beacon Hill an.“) und die Suche zum Planen von Mahlzeiten und Urlauben zu verwenden. Es ist nur verfügbar, wenn Sie Search Labs abonnieren, die Plattform des Unternehmens, auf der Benutzer Betafunktionen ausprobieren können.
Aber die große neue Funktion, die Google AI Overviews nennt und die das Unternehmen nun seit einem Jahr testet, wird endlich für Millionen von Menschen in den USA eingeführt. Die Google-Suche zeigt nun standardmäßig KI-generierte Antworten oben in den Suchergebnissen an und das Unternehmen gibt bekannt, dass es die Funktion bis Ende des Jahres mehr als einer Milliarde Nutzern auf der ganzen Welt zur Verfügung stellen wird.
Zwillinge auf Android
Google integriert Gemini direkt in Android. Wenn später in diesem Jahr Android 15 veröffentlicht wird, wissen Gemini, welche App, welches Foto oder welches Video Sie gerade abspielen, und können es als Overlay ziehen und ihm kontextspezifische Fragen stellen. Wo bleibt Google Assistant, der dies bereits tut? Wen kennst du! Google hat dies in der heutigen Keynote überhaupt nicht zur Sprache gebracht.
Es gab auch eine Reihe anderer Updates. Google sagte, es werde digitale Wasserzeichen zu KI-generierten Videos und Texten hinzufügen, Gemini im Seitenbereich in Gmail und Docs zugänglich machen, einen KI-gestützten virtuellen Kollegen in Workspace unterstützen, Telefonanrufe abhören und erkennen, ob Sie tatsächlich betrogen werden Zeit und vieles mehr.
Verfolgen Sie alle Neuigkeiten von Google I/O 2024 live Hier!