Das gesichtsverändernde Tool von Google Pixel löst Kontroversen über KI-Manipulation aus

Bildquelle, Getty Images

Kommentieren Sie das Foto,

Es ist nie für alle einfach, auf einem Gruppenfoto gut auszusehen

Die Kamera lügt nie. Außer natürlich, dass es tatsächlich vorkommt, und es scheint von Tag zu Tag häufiger vorzukommen.

Im Zeitalter von Smartphones sind schnelle digitale Anpassungen zur Verbesserung von Bildern alltäglich geworden, von der Verbesserung der Farben bis hin zur Anpassung der Lichtstärke.

Jetzt trägt eine neue Generation von Smartphone-Tools mit künstlicher Intelligenz (KI) zur Debatte darüber bei, was es bedeutet, die Realität zu fotografieren.

Die neuesten Smartphones von Google, die letzte Woche veröffentlicht wurden, das Pixel 8 und das Pixel 8 Pro, gehen noch einen Schritt weiter als die Geräte anderer Unternehmen. Sie nutzen künstliche Intelligenz, um den Gesichtsausdruck von Menschen auf Fotos zu verändern.

Es ist eine Erfahrung, die wir alle gemacht haben: Auf einer Gruppenaufnahme ist eine Person zu sehen, die von der Kamera wegschaut oder nicht lächelt. Google-Telefone können jetzt Ihre Fotos durchsuchen, um frühere Ausdrücke zu kombinieren und mithilfe von maschinellem Lernen einen Smiley aus einem anderen Bild davon auf einem Foto zu zeichnen. Google nennt es Best Take.

Mit den Geräten können Benutzer auch unerwünschte Elemente in einem Bild – von Personen bis hin zu Gebäuden – löschen, verschieben und in der Größe ändern und den verbleibenden Raum mit einem sogenannten Magic Editor „füllen“. Hierbei kommt das sogenannte Deep Learning zum Einsatz, ein leistungsstarker Algorithmus der künstlichen Intelligenz, der bestimmt, welche Texturen eine Lücke füllen sollen, indem er die umliegenden Pixel analysiert, die er sehen kann, und dabei Erkenntnisse aus Millionen anderer Bilder nutzt.

Die Fotos müssen nicht unbedingt auf dem Gerät aufgenommen werden. Mit dem Pixel 8 Pro können Sie einen sogenannten Magic Editor oder Best Take auf alle Fotos in Ihrer Google Fotos-Bibliothek anwenden.

„Schlecht und beängstigend“

Für einige Beobachter wirft dies neue Fragen zur Art und Weise der Aufnahme der Bilder auf.

Andrew Pearsall, ein professioneller Fotograf und Dozent für Journalismus an der University of South Wales, stimmt zu, dass die Manipulation künstlicher Intelligenz mit Risiken verbunden ist.

„Einfache Manipulation, selbst aus ästhetischen Gründen, kann uns auf einen dunklen Weg führen“, sagte er.

Er sagte, dass die Risiken für diejenigen, die KI im beruflichen Kontext nutzen, höher seien, aber es gebe Konsequenzen, die jeder berücksichtigen sollte.

„Man muss sehr vorsichtig sein, wann man die Grenze überschreitet.“

„Es ist jetzt sehr beunruhigend, dass man ein Foto machen und sofort etwas von seinem Handy entfernen kann. Ich denke, wir bewegen uns in eine Art Fake-Welt.“

Im Gespräch mit der BBC sagte Isaac Reynolds von Google, der das Team leitet, das Kamerasysteme für die Smartphones des Unternehmens entwickelt, dass das Unternehmen ethische Überlegungen zu seiner Verbrauchertechnologie ernst nimmt.

Er wies schnell darauf hin, dass Features wie „Best Take“ keine „Fake“-Inhalte seien.

Kommentieren Sie das Foto,

Dieses Bild wurde mit dem AI Magic Editor von Google bearbeitet, um die Position und Größe der Personen im Vordergrund zu ändern

Kamera- und Softwarequalität sind für ein Unternehmen, das mit Samsung, Apple und anderen konkurriert, von entscheidender Bedeutung, und diese KI-Funktionen werden als Alleinstellungsmerkmal angesehen.

Alle Rezensenten, die Bedenken hinsichtlich der Technik äußerten, lobten die Bildqualität des Kamerasystems.

„Sie können endlich die Aufnahme machen, bei der alle so aussehen, wie Sie es sich wünschen, und das ist etwas, was Sie schon seit einiger Zeit mit keiner Smartphone-Kamera oder Kamera mehr machen können“, sagte Reynolds.

„Wenn es eine Kopie gibt [of the photo you’ve taken] Wo diese Person lächelt, zeige ich dir. „Aber wenn es keine Version gibt, in der sie lächeln, dann wird man es ja nicht sehen“, erklärte er.

Für Herrn Reynolds wird das endgültige Bild zu „einer Darstellung des Augenblicks“. Mit anderen Worten: Dieser bestimmte Moment hat vielleicht nicht stattgefunden, aber es ist das Bild, das Sie sich gewünscht haben und das aus mehreren realen Momenten entstanden ist.

„Die Leute wollen keine Realität“

Professor Rafal Mantioc, Experte für Grafik und Displays an der Universität Cambridge, sagte, es sei wichtig, sich daran zu erinnern, dass der Einsatz künstlicher Intelligenz in Smartphones nicht dazu dient, Bilder real aussehen zu lassen.

„Die Leute wollen die Realität nicht einfangen“, sagte er. „Sie wollen schöne Fotos machen. Die gesamte Bildverarbeitungspipeline in Smartphones ist darauf ausgerichtet, gut aussehende Fotos zu produzieren – keine echten Fotos.“

Aufgrund der physischen Einschränkungen von Smartphones sind sie auf maschinelles Lernen angewiesen, um Informationen zu „ergänzen“, die nicht im Bild enthalten sind.

Dies trägt dazu bei, das Zoomen zu verbessern, Fotos bei schlechten Lichtverhältnissen zu verbessern und im Fall der Magic Editor-Funktion von Google Elemente zu Fotos hinzuzufügen, die noch nie vorhanden waren, oder Elemente aus anderen Fotos auszutauschen, z. B. ein Stirnrunzeln durch ein Lächeln zu ersetzen.

Bildmanipulation ist nichts Neues, sie ist so alt wie die Kunstform selbst. Dank KI war es jedoch noch nie so einfach, die Realität zu skalieren.

Früher in diesem Jahr Samsung steht in der Kritik Für die Art und Weise, wie das Unternehmen Deep-Learning-Algorithmen einsetzte, um die Qualität der mit seinen Smartphones aufgenommenen Mondfotos zu verbessern. Tests ergaben, dass das ursprünglich aufgenommene Foto immer ein brauchbares Foto lieferte, egal wie schlecht es war.

Mit anderen Worten: Ihr Foto des Mondes war nicht unbedingt ein Foto des Mondes, den Sie betrachteten.

Das Unternehmen nahm die Kritik zur Kenntnis und sagte, es arbeite daran, „mögliche Verwechslungen zu reduzieren, die zwischen der Aufnahme eines Fotos des echten Mondes und eines Fotos des Mondes entstehen könnten.“

In Bezug auf die neue Technologie von Google sagt Reynolds, dass das Unternehmen seinen Fotos Metadaten hinzufügt – den digitalen Fingerabdruck des Bildes – und dabei einen Industriestandard verwendet, um anzuzeigen, wann KI verwendet wurde.

„Es ist eine Frage, über die wir intern sprechen. Und wir haben ausführlich darüber gesprochen. Denn wir arbeiten seit Jahren an diesem Thema. Es ist ein Gespräch und wir hören zu, was unsere Benutzer sagen“, sagt er .

Google ist eindeutig zuversichtlich, dass die Nutzer zustimmen werden, da die Funktionen der künstlichen Intelligenz in seinen neuen Telefonen im Mittelpunkt seiner Werbekampagne stehen.

Gibt es also eine Grenze, die Google bei der Bildmanipulation nicht überschreitet?

Reynolds sagte, die Debatte über den Einsatz künstlicher Intelligenz sei so nuanciert, dass man nicht einfach auf eine Linie im Sand zeigen und sagen könne, sie sei zu weit entfernt.

„Je tiefer man in die Entwicklung von Funktionen einsteigt, desto mehr wird einem klar, dass die Schriftart eine Art Vereinfachung dessen ist, was letztendlich eine sehr schwierige Entscheidung für jedes einzelne Merkmal darstellt“, sagt er.

Auch wenn diese neuen Technologien ethische Überlegungen darüber aufwerfen, was Realität ist und was nicht, müssen wir laut Professor Mantioc auch die Einschränkungen berücksichtigen, die unseren Augen auferlegt werden.

„Die Tatsache, dass wir scharfe Farbbilder sehen, liegt daran, dass unser Gehirn Informationen rekonstruieren und sogar fehlende Informationen ableiten kann“, sagte er.

„Man könnte sich also darüber beschweren, dass Kameras falsche Dinge tun, aber das menschliche Gehirn macht tatsächlich dasselbe auf eine andere Art und Weise.“

Siehe auch  Trails von Grund auf / Trails zu Azure, Monarch und mehr

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert