Skip to main content

free lutz!

Submitted by lemadmin on Tue, 05/05/2015 - 02:00
Klassifikation | Classification
Autor(en) | Author(s)
Auer, Johannes
Link zum archivierten Werk | Link to archived work
Jahr der Erstveröffentlichung | Year of original publication
2005
Sprache(n) | Language(s)
Deutsch, Polnisch, Portugiesisch, Englisch, Französisch
Screenshots
Deutsche Beschreibung | German description

[Free Lutz des Netzkünstlers Johannes Auer verarbeitet die Stochastischen Texte von Theo Lutz.] Auer hat zunächst das Programm von Lutz exakt in PHP nachprogrammiert. Die Generierung von Elementarsätzen, wie sie damals das Programm von Lutz auf der Z 22 erzeugte, kann seither im Internet nachvollzogen werden.
Für Free Lutz bzw. Search Lutz  wurde nun aber eine ganze Reihe von Erweiterungen konzipiert: Das Projekt bietet an, die Sätze mit oder ohne die von Lutz korrigierten Fehler zu generieren. Dann ist es dem Publikum partizipativ möglich, selbst Substantive oder Adjektive zu erfinden und einzugeben und deren Geschlecht zu bestimmen. Damit wird die damals nicht reflektierte Vorentscheidung, welches Wortmaterial von wem und aus welchem Grund ausgewählt wurde, konzeptueller Bestandteil. Zugleich werden quasi zwei Zufallsgeneratoren einander gegenüber gestellt: das statistische Programm und die unberechenbare Schreibaktivität der Internetuser. Dieser Aspekt wurde mit einer weiteren Rückkopplungsschleife versehen, indem zusätzlich auch noch Suchbegriffe, die Menschen in die Suchmaschine Fireball eingeben, in Echtzeit in das Vokabular des Generators eingespeist werden. Schließlich hat Auer noch eine interessante Erweiterung vorgenommen: Er lässt die unter diesen Bedingungen gerade entstehenden Sätze von einem Schauspieler in einer Live-Radiosendung oder in einer Performance vortragen. Damit wird der prozessuale Aspekt durch eine Interaktion zwischen Schauspieler und Publikum erweitert, insbesondere, wenn nun Wörter gewählt oder erfunden werden, die eine besondere klangliche oder semantische Note habe, beispielsweise sehr schwer auszusprechen oder obszön sind.
Mit diesem Projekt hat Auer nicht nur die Stochastischen Texte zugänglich gemacht. Er bietet darüber hinaus an, diese im Zusammenhang aktueller Internetkultur zu reflektieren. Die Komplexität dieser digitalen Kultur wird hier in der rekursiven Verschränkung mehrerer Textgenerations- und Textpräsentationsweisen konzipiert. Interessant ist vor allem, dass Auer den subjektiven Faktor wieder gezielt mit ins Spiel bringt. Damit wirft er eine ähnliche Reflexion auf wie Ulrike Gabriel mit ihrer Oskarine. Bei Free bzw. Search Lutz ist diese Subjektivität konzipiert durch die Texteingabe von Publikum oder Internetusern und gesteigert als – sagen wir – Authentifizierung durch die körperliche, stimmliche Präsenz der vortragenden Schauspielerin. Wir haben es hier zudem mit einem kritischen Kommentar der Ästhetik von Bense zu tun, mit einer Umwertung: Dem radikalen Kalkül und dem Statistisch-Bestimmten des Schönen ist hier das Unberechenbare und Individuelle gegenübergestellt, die ,Verschmutzung‘, wie Christian Steinbacher es nennen würde. Dieser Rekurs aufs Subjektive macht nur zu deutlich, dass dieses Moment in Benses Ästhetik, obwohl geschmäht, gleichwohl latent vorhanden ist.

Quelle: Friedrich W. Block: p0es1s. Rückblick auf die digitale Poesie. Klagenfurt, Graz: Ritter, 2015, S. 153-155.

Autor der deutschen Beschreibung | Author of German description
Friedrich W. Block
Englische Beschreibung | English description

Author's description:
"50 years ago a calculator generated a literary text for the first time ever. And this was in Stuttgart, my hometown.
Theo Lutz wrote 1959 a program for Zuse Z22 to create stochastic texts. On the advice of the Stuttgardian philosopher Max Bense, he took sixteen nouns and adjectives out of Kafka’s Das Schloss, which the calculator then formed into sentences, following certain patterns. Thus every sentence began with “ein” or “jeder” (“one” or “each”) or the corresponding negative form “kein” or “nicht jeder” (“no” or “not every”). Then the noun, selected arbitrarily from the pool of sixteen, was linked through the verb “ist” (“is”) with the likewise arbitrarily chosen adjective. Then the whole assembly was linked up through “und,” “oder,” “so gilt” (“and,” “either,” “thus”) or given a full stop. Following these calculation instructions, by means of this algorithm, the machine was able to construct such sentences as:

EIN TAG IST TIEF UND JEDES HAUS IST FERN
(A day is deep and every house is distant)
JEDES DORF IST DUNKEL; SO GILT KEIN GAST IST GROSS
(Every village is dark, thus no guest is large)

For the performance of free lutz!, I use a web conversion of Theo Lutz’s program which I wrote in PHP. The Web interface generates stochastic texts on the basis of Lutz’s algorithm but permit additional word input. The nouns and adjectives of the original vocabulary can be replaced by the audience at the performance through a terminal.
In 1959, computer texts were connotated as literary texts twice over, firstly through the “Kafka” vocabulary, and secondly through corrections carried out by Theo Lutz. In an edited print out of a selection of stochastic texts, Theo Lutz corrected minor grammar errors and punctuation omissions by hand, and thus, out of keeping with the programming, he acted as a “traditional” author. In the performance, reference is made to these literary features (or one could almost say “human failings”) of the first computer-generated texts in two ways. The first is through the co-authorship of the listeners, the second is the literary production of the computer texts by a professional speaker reading off the screen and performing them as they were generated."

Einträge in anderen CELL-Datenbanken | Entries in other CELL databases