Freitag, 21. Juni 2013

eVarianz

Ein Forschungsprojekt des »Fraunhofer-Instituts für Sichere Informationstechnologie«, über das im Börsenblatt und in verschiedenen Blogs berichtet wird, hat es in sich: Bei »SiDiM« (»Sichere Dokumente durch individuelle Markierung«) versucht man, in elektronischen Dokumenten automatisiert Textveränderungen vorzunehmen, um auf diese Weise das Dokument zu individualisieren, so dass es sich zweifelsfrei einer Person (also in der Regel einem Käufer) zuordnen lässt. Beispielsweise kann die Wortreihenfolge bei Aufzählungen verändert werden oder es wird ein negierendes Präfix (»unklar«) durch den Negationspartikel »nicht« ersetzt (»nicht klar«).

Abgesehen von der naheliegenden Kritik, dass damit die Texte nicht mehr zitierbar sind und dass sich auf diese Weise mitunter nicht nur Stil und Rhetorik, sondern auch die Bedeutung eines Textes ändern kann, würden wir uns mit einem solchen Vorgehen wieder der Handschriftenkultur annähern. Eine Handschriftenkultur (wie diejenige des europäischen Mittelalters) ist (in aller Regel) durch Varianz geprägt; beim Abschreiben von Handschriften werden Textänderungen vorgenommen: es werden zum Beispiel Abkürzungen eingefügt oder aufgelöst, die Schreibung wird auf die dem Schreiber gewohnten Konventionen umgestellt, dialektale Merkmale werden getilgt oder durch Merkmale eines anderen Dialekts ersetzt. Erst seit der Einführung des Buchdrucks wird es mehr und mehr möglich, eine Vielzahl sich sehr ähnlicher Texte zu produzieren, so dass eine größere Gruppe sich auf einen stabilen Text berufen kann. Dass man nun darüber nachdenkt, diesen Prozess der Stabilisierung umzukehren, ist zumindest bemerkenswert und sagt vielleicht auch etwas aus über die strukturelle Nähe elektronischer Kommunikation zur Handschriftenkultur des Mittelalters.

Donnerstag, 20. Juni 2013

Botschafen ans Gehirn

»Schrift liest sich immer mit«, schreibt Laura Weissmüller in der gestrigen Süddeutschen Zeitung, in einem Bericht über die Ausstellung »On-Type. Texte zur Typografie«. Und damit formuliert sie auf plastische Weise eine Forderung der gegenwärtigen Literaturwissenschaften: Man muss die Gegenständlichkeit, Form und Materialität von Texten und Geschriebenem berücksichtigen und untersuchen! Schließlich gilt, so Weissmüller weiter: »Noch bevor unser Kopf das erste Wort verstanden hat, schickt das Schriftzeichen über seine Form bereits Botschaften ans Gehirn«.

Stilometrie

In einem Artikel vom September letzten Jahres beschreibt der österreichische Schriftsteller Clemens J. Setz die Suche nach dem anonymen Programmierer (um nicht zu sagen: Verfasser) der elektronischen Währung Bitcoin. Da von ihm neben einem wohl pseudonymen Namen nur Texte bekannt sind, blieb als Möglichkeit nur der Versuch, von den Texten auf einen Verfasser zu schließen. Das Mittel der Wahl ist deshalb die »Stilometrie«, also eine stilistische Untersuchung der Sprache.

Ausgehend von dieser Suche spricht Setz über Autorschaft, geistiges Eigentum, Möglichkeiten der stilistischen Verschleierung, über Spuren und einiges mehr. Aus Sicht einer Historischen Textwissenschaft lässt sich noch ein Aspekt – beziehungsweise: eine Frage – hinzufügen: Was sind denn die historischen Grundlagen der Stilometrie? Setz erwähnt an einer Stelle die »Epiker des europäischen Mittelalters«, die wohl kaum »an ihrem geistigen Eigentum« festgehalten haben. Gerade am Beispiel einer mittelalterlichen Handschriftenkultur kann man zudem lernen, dass eine Stilometrie stabile, einem Verfasser zurechenbare Texte voraussetzt. Schließlich werden mittelalterliche Handschriften abgeschrieben und im Zuge dieses Abschreibens in vielerlei Hinsicht verändert. Zwischen einem Verfasser und einem konkreten Leser treten mithin mehrere Abschreibeereignisse, die einen Rückschluss von einer konkreten Handschrift (und einem konkreten Stil) auf einen Verfasser nicht oder nur eingeschränkt zulassen. Gerade das Internet schafft mit der Möglichkeit einer in hohem Grade unmittelbaren Verbindung von Verfasser und lesbarem Text sehr gute Voraussetzungen für eine Stilometrie.

Montag, 17. Juni 2013

Wikipedias Textwissenschaft II

Vor schon etwas längerer Zeit, nämlich am 7. Januar, habe ich angekündigt, dass ich mir den Wikipedia-Artikel zum Thema »Textwissenschaft« einmal etwas genauer ansehen würde. Der Artikel besteht aus vier Absätzen, einem Verweis auf den Artikel zur »Textverstehensforschung« und aus einem Literaturhinweis, dem ich im Januar bereits nachgegangen bin. Der erste Satz lautet:

»Als Textwissenschaft kann ganz allgemein jede spezielle Wissenschaft verstanden werden, zu deren Gegenständen Texte gehören.«

Man kann wohl sagen, dass man sich mit dieser Definition auf der sicheren Seite befindet, immerhin wird im Wesentlich nur auf die beiden Bestandteile des Begriffs verwiesen, eben auf »Wissenschaft« und auf »Text«. Der folgende (Ab-)Satz zählt auf, welche »spezielle[n]« Wissenschaften als »Textwissenschaft« gelten können:

»Das wären vor allem: Linguistik, Literaturwissenschaft, Rechtswissenschaft, Rhetorik, Stilistik, Theologie.«

Abgesehen davon, dass das »vor allem« eine Abgeschlossenheit suggeriert, die bei einem kaum gebräuchlichen Begriff wenig sinnvoll zu sein scheint, ist die Aufzählung recht uneinheitlich. Zwar sind Linguistik, Literaturwissenschaft, Rechtswissenschaft und Theologie Disziplinen, die fest an den Universitäten verankert sind, für Rhetorik und Stilistik gilt dies jedoch nicht. Zudem sind Literaturwissenschaft und Linguistik deutlich jüngere Disziplinen als Rechtswissenschaft und Theologie.

Ich überspringe den Rest des zweiten Absatzes und widme mich dem dritten:

»Die Literaturwissenschaft wiederum interessiert sich neben anderen Dingen für die ästhetischen Qualitäten oder auch die ursprüngliche Form von Texten.«

Dieser Satz lässt sich schon allein wegen der Einschränkung (»neben anderen Dingen«) kaum kritisieren. Zwar ließe sich hier (wie schon beim ersten Satz) kritisieren, dass zu klären wäre, was unter »Text« verstanden wird – aber das Problem des gesamten Artikels ist meiner Meinung ein anderes: Es fehlt eine historische Perspektive, um zu erläutern, seit wann es den Begriff »Textwissenschaft« gibt, welche Funktion(en) er erfüllt und in welchen Zusammenhängen er gegenwärtig gebraucht wird. Der letzte Absatz ist ein Schritt in diese Richtung:

»In einen [!] besonderen Verständnis meint Textwissenschaft aber einen Vorschlag, die an Texten interessierten Wissenschaften zu einer gemeinsamen Wissenschaftsdiziplin zu vereinen, in der die unterschiedlichen Interessen zusammengeführt werden (Bußmann).«

Mit diesem (Ab-)Satz scheint nun eine historische Perspektive auf, die allerdings nicht ganz korrekt ist. Bußmann nämlich beschreibt in seinem »Lexikon der Sprachwissenschaft«, die »Textwissenschaft« als einen Forschungsbereich, der »speziell eine Annäherung von Linguistik und Literaturwissenschaft zum Ziel hat«. Es geht also nicht darum, alle an Texten interessierte Wissenschaften zu vereinen, sondern es geht um genau zwei Disziplinen, die zudem (zumindest im deutschsprachigen Raum) eine gemeinsame Geschichte haben, da sie beide aus der Germanistik hervorgehen, beziehungsweise heute gemeinsam die Germanistik bilden.

Dienstag, 11. Juni 2013

»Text«

Was ist das eigentlich, ein »Text«? Und wann spricht man überhaupt von »Texten«? In der Einleitung zur Anthologie »Texte zur Theorie des Textes« von Stephan Kammer und Roger Lüdeke werden drei Verwendungsweisen unterschieden. Zum einen werde unter »Text« eine »geordnete Menge von Elementen« verstanden, die sich zur »höchste[n] Sinneinheit von sprachlichen Äußerungen« gruppieren. So verstanden bilden Texte eine abgrenzbare Einheit. Unter »Text« lässt sich zweitens aber auch ein System von Verweisen verstehen, das zur Herausbildung von Bedeutung beiträgt. Ein solches Verständnis sperrt sich gegen Ganzheitsvorstellungen und Abgrenzungen. Drittens kann die Rede vom »Text« auf dessen »konkreten, materiell-medialen Objektstatus« verweisen, so dass auch Textträger und die graphische Gestalt von Textualität in den Blick gerät.

Sonntag, 2. Juni 2013

Internationales Kunstenglisch

Im aktuellen Merkur findet man die Übersetzung eines Artikels von Alix Rule und David Levine über »International Art English« (IAE). Darin wird – mit einer gewissen Ironie, wenn ich mich nicht täusche – die These vertreten, dass es sich bei den verschiedenen online verbreiteten Ankündigungs-, Katalog- und Werbetexten der Kunstwelt nicht einfach nur um ein fachsprachliches Englisch handelt, sondern um eine eigene, vom Englischen abzugrenzende Sprache handelt. Ein zentrales Argument für diese These ist aus textwissenschaftlicher Sicht nicht uninteressant. Die beiden Verfasser weisen nämlich darauf hin, dass sich das gegenwärtige Art-Englisch insbesondere an Übersetzungen französischer Poststrukturalisten und Dekonstruktivisten orientiert. Deshalb klinge diese Sprache mitunter wie ein »schlecht übersetztes Französisch«. In dieser »universalen Fremdsprache« werde nun weltweit über Kunst geschrieben, so dass sich VerfasserInnen aus anderen Sprachräumen nun selbst in diese Sprache übersetzen müssen. Es ist gerade dieser Übersetzungsprozess, der sich als eine komplexe Reihung von Nachahmung, Wiederholung und sprachlicher Selbstdisziplinierung vorstellen lässt: Vielleicht sind, so die Autoren, die französischen Pressemitteilungen deshalb so gut, weil sich französische Praktikanten an amerikanischen Praktikanten orientieren, die sich an amerikanischen Professoren orientieren, die sich an französischen Professoren orientieren?

     »The IAE of the French press release is almost too perfect: 
     It is written, we can only imagine, by French interns 
     imitating American interns imitating American academics 
     imitating French academics. Scandinavian IAE, 
     on the other hand, tends to be lousy. Presumably 
     its writers are hampered by false confidence—
     with their complacent non-native fluency in English,
     they have no ear for IAE.«