Literaturscreening & Analytik Bestseller-Algorithmen

Digital

12. Februar 2020

Die Anwendung von Computer-Algorithmen erfasst immer neue Lebensbereiche. Mittlerweile sind davon auch Buchautoren und Buchautorinnen betroffen.

Bestseller-Algorithmen.
Mehr Artikel
Mehr Artikel

Bestseller-Algorithmen. Foto: RobH (CC BY-SA 3.0 cropped)

12. Februar 2020
0
0
4 min.
Drucken
Korrektur
Jährlich gehen bei den Buchverlagen Tausende unverlangter Manuskripte ein. Dort haben die Lektoren und Lektorinnen pro Text oft nur wenige Sekunden Zeit, die Spreu vom Weizen zu trennen. Angesichts dieser Situation bietet die Berliner Firma „Qualification“ Abhilfe an. Mit dem Programm „Lisa“ (kurz für „Literaturscreening & Analytik“) hat sie eine Software entwickelt, die innerhalb von Sekunden das Verkaufspotenzial eines Manuskripts erkennen soll (Mayer-Kuckuk 2019, 12). Es ist schon bei einer Reihe von Verlagen im Einsatz. „Lisa“ ist ein neuronales Netz, das anhand von rund 10.000 Büchern gelernt hat, welche Eigenschaften zum Verkaufserfolg führen. Mehrere Verlage haben dafür ihre erfolgreichsten Bücher als Anschauungsmaterial zur Verfügung gestellt. Das Programm bekam den kompletten Text sowie die Verkaufszahl jedes einzelnen Buchs zur Verfügung gestellt. Die auf diese Weise trainierte „Lisa“ gibt nun im Praxiseinsatz die Chance für den Verkaufserfolg eines eingereichten Manuskripts in Prozent an und macht ausserdem Vorschläge für die Höhe der Startauflage (ebd.).

In ihrem Buch „Angriff der Algorithmen“ beschreibt die Mathematikerin Cathy O'Neil, auf welche Weise Programme wie „Lisa“ funktionieren und was für Folgen ihre breite Anwendung in der Gesellschaft hat. Algorithmen sind letztlich nichts anderes als in Computer-Code eingebettete menschliche Zwecke. Im Grunde sind sie nur dazu da, bestimmte Dinge zu differenzieren und Abläufe zu beschleunigen – das allerdings mit einer atemberaubenden Effizienz (O'Neil 2017, 160). Diese Effizienz wird mit Profit und Wachstum des jeweiligen Unternehmens belohnt, was die Konkurrenz dazu zwingt, ebenfalls solche Programme einzusetzen. Im Fall von „Lisa“ geht es darum, jene entscheidenden maschinell erfassbaren Informationsschnipsel zu finden, die mit dem Verkaufserfolg von Büchern korrelieren (ebd., 164). Weil sich die Vorlieben der Leserinnen und Leser ändern können, lernt das Programm ausserdem an aktuellen Veröffentlichungen und deren Verkaufszahlen weiter und passt sich dadurch immer wieder an den aktuellen Massengeschmack an (Mayer-Kuckuk 2019, 12).

Algorithmen sind intransparent. Aufgrund ihrer Komplexität könnten sie in ihrer Funktionsweise nur von einer relativ kleinen Gruppe von spezialisierten Programmierern und Programmiererinnen verstanden werden (O'Neil 2017, 39). In der Regel fallen sie ohnehin unter das Geschäftsgeheimnis von Firmen, so dass nur sehr wenige Menschen überhaupt Zugang zu ihnen haben (ebd., 44). Und sofern es sich um neuronale Netze – wie „Lisa“ eins ist – handelt, hört die menschliche Kontrolle völlig auf. Neuronale Netze bestehen aus mehr als Tausend Schichten simulierten „Nervengewebes“ und programmieren sich laufend selbst neu. „Neuronale Netze sind undurchschaubar wie Götter und ihre Funktionsweise ist nicht zu erkennen.“ (Ebd., 12). Welche Kriterien ein neuronale Netz entwickelt hat, behält es für sich. Autoren und Autorinnen, deren Manuskript abgelehnt wurde, erfahren daher nicht warum. Letztlich sind es mathematische Cut-Off-Werte, die alles abweisen, was jenseits von ihnen liegt (ebd., 182). Die dabei genutzten Daten basieren ihrem Wesen nach auf der Vergangenheit und damit auf der Annahme, dass die Muster der Vergangenheit sich in der Zukunft wiederholen werden (ebd., 57). Auf diese Weise wird die Vergangenheit in Code eingebettet, operationalisiert und als vermeintliches Zukunftswissen ausgegeben (ebd., 276). Faktisch wird lediglich reproduziert, was zuvor zum Erfolg geführt hat. Das verstärkt aktuelle Trends und laufende Entwicklungen. Für den Buchmarkt bedeutet das, dass es zu einer allgemeinen Angleichung der Inhalte und Stile kommen wird (Maxeiner 2019, 18).

Auch Autoren können Muster erkennen. Es wird ihnen künftig kaum etwas anderes übrig bleiben, als sich zunehmend darauf zu konzentrieren, den obskuren Kriterien der Algorithmen gerecht zu werden. Im Zusammenhang mit „Lisa“ ist immerhin bekannt, dass es stark auf die Benutzung aktiver Verben achtet (Mayer-Kuckuk 2019, 12). Ausserdem weiss man, dass Witze für Computerprogramme äusserst irritierend sind (O'Neil 2017, 178). Alles in allem werden Schriftstellerinnen künftig darauf gedrillt, einem vage durchschaubaren System von Kriterien gerecht zu werden. Im Zweifelsfall werden sie einfach die erfolgreichen Kollegen imitieren, um die Anforderungen des Selektions-Algorithmus zu erfüllen. So entstehen selbstbezügliche Schleifen, die sich selbst bestärken (ebd., 45). In der Folge wird es „immer mehr vom Immergleichen geben“ (Maxeiner 2019, 18), Neuartiges zu schreiben wird systematisch entmutigt. Eine frische neue Autorin, die mit einer gewissen Sorte von Witz oder Ironie das Zeug haben könnte, eine völlig neue Stilrichtung zu kreieren, wird dagegen von einer sturen Software davon abgehalten werden, überhaupt etwas zu veröffentlichen. Originelle Literatur wird man künftig in Nischen suchen müssen und hoffen, dass es diese in Zukunft überhaupt noch geben wird.

Daten, Computer, Software und Co. werden nicht mehr aus unserem Leben verschwinden (O'Neil 2017, 296). Die Programme, Algorithmen, neuronalen Netze, etc. entwickeln sich ständig weiter und breiten sich zunehmend aus, ständig auf der Suche nach neuen Anwendungsmöglichkeiten (ebd., 275). Fast immer geht es darum, Arbeitsabläufe zu optimieren, Verkaufszahlen zu verbessern, Profite zu steigern, kurz: den Geboten des allgemeinen Verwertungsgeschehens zu folgen. Vor allem weil es effizient und kostengünstig ist, werden Menschen also immer stärker dazu gezwungen, den Kriterien von Maschinen gerecht zu werden. So wird alles immer weiter einer allgemeinen Berechenbarkeit untergeordnet und der Raum für autonomes Denken zunehmend enger.

Peter Samol
streifzuege.org