Erinnern Sie sich an das virale Bild von Papst Franziskus in einer weißen Pufferjacke und einem juwelenbesetzten Kruzifix, das aussah, als käme er von einer Streetwear-Modenschau? Wir haben schon früher Deepfakes gesehen, aber nur wenige hatten eine so große Wirkung. Nun hat Google ein Tool veröffentlicht, um zu verhindern, dass sich solche Bilder ungehindert verbreiten.
Einführung in SynthID: So funktioniert es
DeepMind, ein von Google übernommenes KI-Forschungslabor, gab kürzlich die Einführung von SynthID, ein Wasserzeichen-Tool, das speziell zur Identifizierung KI-generierter Bilder entwickelt wurde.
„Die Fähigkeit, KI-generierte Inhalte zu identifizieren, ist entscheidend, um Menschen zu vermitteln, wann sie mit generierten Medien interagieren, und um die Verbreitung von Fehlinformationen zu verhindern“, sagte das DeepMind-Team. Im Gegensatz zu herkömmlichen Wasserzeichentechniken, die auf sichtbaren Wasserzeichen oder Metadaten basieren, die verloren gehen können, bettet DeepMind ein digitales Wasserzeichen direkt in die Pixel eines Bildes ein. Dies bedeutet, dass das Wasserzeichen auch dann erhalten bleibt, wenn das Bild durch Zuschneiden, Größenänderung, Filter oder Helligkeitsanpassungen verändert wird. Während das menschliche Auge es nicht erkennt, kann es von Erkennungssoftware identifiziert werden.
Viel mehr ist über die Technologie noch nicht bekannt. CEO Demis Hassabis erklärte gegenüber The Verge: „Je mehr man über die Funktionsweise verrät, desto einfacher wird es für Hacker und böswillige Organisationen, sie zu umgehen.“ SynthID ist derzeit in der Beta-Version für Imagen-Nutzer verfügbar, ein Google Cloud-Produkt, das Scheitelpunkt AI, eine Cloud-basierte Plattform für maschinelles Lernen. Kunden können KI-generierte Bilder verantwortungsvoll erstellen, teilen und identifizieren. Hassabis weist jedoch darauf hin, dass die Technologie nicht narrensicher gegen „extreme Bildmanipulationen“ ist, aber es ist ein Schritt in die richtige Richtung.
Was kommt als Nächstes für SynthID?
Das DeepMind-Team arbeitet daran, den Zugang zu SynthID zu erweitern, um es Dritten zugänglich zu machen und in weitere Google-Produkte zu integrieren. Diese Ankündigung erfolgte kurz nachdem Google und sechs führende KI-Unternehmen an einem Gipfeltreffen im Weißen Haus teilgenommen hatten, bei dem sie versprachen, in KI-Sicherheitstools und Forschung für einen verantwortungsvollen Einsatz zu investieren. Das Weiße Haus forderte eine neue Wasserzeichentechnologie als Mittel für KI-Unternehmen, um das Vertrauen der Öffentlichkeit zu gewinnen. Laut The Verge, wird die Software wahrscheinlich auch Audio- und visuelle Inhalte umfassen.
Dieser Gipfel ist Teil der laufenden Bemühungen der Regierung, Deepfakes zu bekämpfen. Im Jahr 2021 verabschiedete der Ausschuss des Ministeriums für Innere Sicherheit und Regierungsangelegenheiten den Gesetz zur Deepfake Task Force. Auf der leichteren Seite können Deepfakes den Papst auf humorvolle Weise in trendige Mode stylen. Auf der dunkleren Seite können sie zu politischer Instabilität, Betrug und Börsenmanipulation führen.
Im Jahr 2021 war Adobe Mitbegründer der gemeinnützigen Koalition für Inhaltsherkunft und Authentizität (C2PA) um die Kennzeichnung von Medieninhalten zu standardisieren und Fehlinformationen zu bekämpfen. Sie dienen als Gütesiegel und zeigen den Verbrauchern, dass ein Inhalt nicht manipuliert wurde. Aufgrund des KI-Booms ist die Mitgliederzahl von C2PA in den letzten sechs Monaten um 56 % gestiegen, wie MIT Technology ReviewEnde Juli kündigte Shutterstock an, das technische Protokoll von C2PA in seine KI-Systeme und Kreativitätstools zu integrieren, darunter auch den KI-Bildgenerator.
Der Imbiss
Angesichts des zunehmenden staatlichen Drucks müssen große und kleine KI-Unternehmen verantwortungsvolle KI-Bemühungen priorisieren. Egal, ob Sie KI-Tools verwenden oder erstellen, es wird mehr Kontrolle geben.