
Der Autor und Berater Patrick Meier reagiert bei BuchMarkt auf die Ankündigung des Loewe Verlags, der seine Bücher ab sofort mit dem Label „Ohne KI“ versieht.
Der Loewe Verlag klebt ab sofort ein Label auf seine Bücher. «Ohne KI» steht darauf, sichtbar in den Online-Shops, direkt neben dem Cover. Der Verlag selbst nennt es ein Zeichen gegen den KI-Slop, also gegen minderwertige, massenhaft produzierte Inhalte, die von generativer Künstlicher Intelligenz erzeugt werden. Und ich verstehe den Impuls vollkommen. Wirklich. Trotzdem.
Ich beschäftige mich seit einigen Jahren mit dem Thema KI und auch mit dem Thema KI und Bücher (u.a. hier bei BuchMarkt und im Podcastgespräch mit Vera Nentwich), und wenn ich dieses Label sehe, denke ich unweigerlich an eine andere Branche, die denselben Weg gegangen ist: die Onlinewerbung.
Als der Ad-Fraud, also der betrügerische Einsatz gefälschter Methoden in der digitalen Werbung, um Klicks, Impressionen oder Conversions durch Bots statt echte Nutzer:innen zu erzeugen, zu explodieren begann (und er wächst weiter und weiter) — Milliarden an Werbebudgets versickerten in gefaktem Traffic, in Botnetzen, in Klickfarmen irgendwo zwischen Minsk und Manila — reagierte die Branche mit Standards, Labels, Zertifikaten, Gütesiegeln. Es gab Whitelists, Brand-Safety-Tools, Viewability-Metriken. Alles gut gemeint. Alles weitgehend wirkungslos gegenüber denjenigen, die das System wirklich ausnutzten. Denn die bösen Buben saßen nie am Tisch, wenn die Standards verhandelt wurden. Die haben einfach neue Schlupflöcher gesucht. Und gefunden.
Genauso hier. Die Buchfabriken, die heute industriell KI-Slop über Selfpublishing-Dienste wie Amazon KDP und andere Wege in den Markt pumpen, gehen nicht zu einem Verlag, der ein Label auf seine Bücher klebt. Die interessieren sich nicht für das Qualitätssignal, das Loewe aussenden will. Die produzieren weiter, über andere Vertriebswege, in anderen Kategorien, mit anderen Autor:innennamen — und das Label ändert daran nahezu nichts.
Dann ist da die Frage, was das Label eigentlich aussagt. Über Qualität sagt «Ohne KI» so gut wie nichts. Ein miserabel geschriebener Roman bleibt miserabel, ob er mit oder ohne Sprachmodell entstanden ist. Umgekehrt gibt es Texte, bei denen GenAI als Werkzeug so souverän eingesetzt wurde, dass das Ergebnis handwerklich überzeugender ist als manches, was rein menschlich entstanden ist. Das Label bewertet den Entstehungsprozess, nicht das Ergebnis. Das ist eine Haltungsentscheidung, keine Qualitätskontrolle.
Und dann ist da die Frage, wie der Verlag das überhaupt prüfen will. Vertrauen? Detektoren? Die vorhandenen KI-Detektoren greifen kaum zuverlässig — sie produzieren sowohl falsch positive als auch falsch negative Ergebnisse, und wer einen Text nur leicht überarbeitet, umgeht sie mühelos. Bleibt also das Lektorat. Die Lektorinnen und Lektoren, die gut sind, die einen Text lesen und spüren, ob dahinter eine lebendige Stimme steckt oder statistisch wahrscheinliche Wortketten. Das ist möglicherweise der ehrlichste Detektor, den es gibt. Nur: Diese Lektoren haben Kolleginnen und Kollegen, die auf LinkedIn Kurse anbieten, wie man mit KI bessere Texte schreibt. Wie man Prompts optimiert. Wie man das Modell so führt, dass der Output nach Mensch klingt.
In Excel gibt es dafür einen Begriff: Zirkelbezug. Der Fehler tritt auf, wenn eine Formel auf sich selbst verweist und das System die Auflösung verweigert. «Der Zirkelbezug kann nicht aufgelöst werden», steht dann in der Fehlermeldung. Genauso hier: Der Verlag setzt auf Lektor:innen, um KI-Texte zu erkennen. Die Branche trainiert gleichzeitig darauf, KI-Texte so zu schreiben, dass Lektor:innen sie nicht erkennen. Das System verweist auf sich selbst. Der Zirkelbezug kann nicht aufgelöst werden.
Ein alternatives System?
An dieser Stelle lohnt sich ein Blick auf FAIA, das für Fair AI Attribution steht. FAIA ist ein Projekt, das in den Niederlanden in Zusammenarbeit mit der Universität Leiden, der GO FAIR Foundation und dem Unternehmen Liccium entwickelt wird. Es zielt darauf ab, Transparenz bei der Nutzung von KI in digitalen Inhalten zu gewährleisten, indem die Nutzer:innen ihre KI-Inhalte als solche markieren und die Maker bei der weiteren Verwendung als Attribute mit übermittelt werden. Damit hat das System den Anspruch, genau diesen Zirkelbezug zu umgehen. FAIA funktioniert nicht als KI-Detektor, sondern als Transparenz- und Kennzeichnungssystem. Der Unterschied klingt zunächst bedeutsam: Statt nachträglich zu erraten, ob ein Text von einer Maschine stammt, wird beim Erstellen des Inhalts eine Kategorie vergeben — vollständig menschlich, KI-unterstützt oder überwiegend KI-generiert. Diese Angabe wird als maschinenlesbare Metadaten gespeichert und mit einem kryptografischen Fingerabdruck am Inhalt verankert. Nachträgliche Manipulation des Inhalts lässt sich damit erkennen.
Das klingt nach einem echten Fortschritt gegenüber dem simplen Verlagslabel. Und technisch ist es das auch. Nur verschiebt es das Problem, ohne es zu lösen. Denn der kryptografische Fingerabdruck schützt vor Manipulation nach dem Erstellen. Was er nicht schützt, ist die Selbstauskunft beim Erstellen selbst. Wer beim Kennzeichnen lügt, lügt in gesicherte Metadaten hinein. Das System macht die Lüge unveränderlich — aber nicht unmöglich. Das Vertrauen bleibt der schwache Punkt. Genau wie beim Loewe-Label. Genau wie bei den Zertifikaten im Ad-Fraud. Der Zirkelbezug wandert eine Ebene tiefer, aber er verschwindet nicht.
Was bleibt? Das Label ist ein kulturelles Statement. Es sagt: Wir stehen für menschliche Autor:innenschaft. Wir glauben, dass das einen Wert hat. Das ist nicht nichts. In Zeiten, in denen dieser Wert gerade aktiv verhandelt wird, ist eine klare Positionierung mehr wert als Schweigen.
Aber wer glaubt, damit den KI-Slop aus dem Buchmarkt zu drängen, unterschätzt das Problem. Die Buchfabriken, gegen die ein solches Label eigentlich ankämpfen soll, interessieren sich nicht für Qualitätssignale eines Belletristikverlags. Sie lesen keine Pressemitteilungen.
Patrick Meier, www.meiersworld.de







