Lesen in Antike und frühem Christentum. Jan Heilmann
ohne WortzwischenräumeWort-zwischenraum geschriebenSchriftGeschriebenes (scriptio continuaSchriftscriptio continua oder scriptura continua) worden.2 Aus diesem allgemein bekannten „typographischen“ Gestaltungsmerkmal antiker Texte ergibt sich die Frage, welche Bedeutung die scriptio continua für antike Lesegewohnheiten hatte. In methodischer Hinsicht stellen sich verschiedene weitere Fragen: Kann man von der „typographischen“ Textgestaltung Rückschlüsse auf die LesepraxisLese-praxis ziehen? Inwiefern bestimmt das Leseverhalten/die Lesepraxis die „typographische“ Gestaltung von Texten auf antiken Schriftmedien bzw. welche anderen Faktoren spielen diesbezüglich eine Rolle? Kompliziert werden diese Fragen sodann, weil die Frage des Zusammenhangs zwischen scriptio continua und Lesepraxis nicht losgelöst von anderen „typographischen“ Gestaltungsmerkmalen der Texte behandelt werden können, da das visuellevisuell Erfassen von Schrift – so viel darf aus der Grundlage der modernen Typographie postuliert werden – im Zusammenhang mit anderen „typographischen“ Gestaltungsmerkmalen untersucht werden muss: insbesondere die Zeilen- bzw. Spaltenlänge, ferner aber auch die Zeilenabstände und die Schriftgröße.
Die hier aufgeworfenen Fragen können aus Gründen der Komplexität des Problems im Rahmen dieser Studie nicht umfassend bearbeitet werden. Ausgehend von der gängigen Sicht des Zusammenhangs zwischen scriptio continuaSchriftscriptio continua und der antiken LesepraxisLese-praxis sind allerdings einige problematisierende Überlegungen notwendig: Wie schon in der Einleitung deutlich geworden ist, wird in den verschiedenen altertumswissenschaftlichen Fächern gemeinhin angenommen, dass ein festes Interdependenzverhältnis zwischen der Praxis des vokalisierendenLautstärkevokalisierend Lesens und der Praxis, Texte in scriptio continua zu schreibenSchreiben, besteht.
So ist in der Forschungsliteratur häufig das Postulat zu finden, dass scriptio continuaSchriftscriptio continua im Vergleich zur scriptio discontinuaSchriftscriptio discontinua schwerer zu lesen wäre; antike Texte in scriptio continua daher vorrangig „lautLautstärkelaut“ vorgelesen werden mussten, um dekodiert und verstandenVerstehen zu werden.3 Die Verknüpfung des Paradigmas des „lauten“ Lesens mit der scriptio continua findet sich schon im eingangs zitierten Aufsatz von J. Balogh,4 eine prominente Stellung nimmt es sodann in P. Saengers berühmten Buch „Space between Words“ ein und wird in der altertumswissenschaftlichen und exegetischenExegese Forschung als gesichertes Wissen rezipiert.5 Die Argumente, die Saenger und andere für die These anführen, dass in scriptio continua geschriebeneSchriftGeschriebenes Manuskripte grundsätzlich für vokalisierendeStimmeinsatzvokalisierend Lektüre vorgesehen gewesen seien, können jedoch die Beweislast der zu beweisenden Interdependenz nicht tragen. Vielmehr setzen sie das zu beweisende Junktim zwischen vokalisierender Lektüre und scriptio continua schon voraus. Dies wird im Folgenden anhand einer kurzen Diskussion der einzelnen Argumente herauszuarbeiten sein.
4.1 P. Saengers These zum Lesen von scriptio continua vor dem Hintergrund der modernen kognitions- und neurowissenschaftlichen Leseforschung
SaengersKognitionswissenschaften These einerLese-forschung Verbreitung der nicht-vokalisierendenStimmeinsatznicht-vokalisierend Lektüre im Mittelalter basiert weniger auf Beobachtungen an repräsentativen Quellen als auf grundlegenden Beobachtungen zur Textorganisation in mittelalterlichen Manuskripten. So geht Saenger davon aus, dass maßgeblich die Einführung von WorttrennungenWort-trennungen (s. Schrift) die Voraussetzung für die Verbreitung der nicht-vokalisierendenStimmeinsatzvokalisierend Lektüre bildete. Diese Innovation findet sich lautLautstärkelaut Saenger erstmals belegt in den Manuskripten iroschottischer Mönche aus dem 7./8. Jh., die unter dem Einfluss syrischer Manuskripte, aber vor allem aus der Schwierigkeit heraus, lateinische (und griechische) Texte, also Texte in einer Fremdsprache, lesen zu müssen, die Worttrennungen in ihre Manuskripte einführten.1 Zudem sei die Zeilenlänge etwa in Evangelienmanuskripten seit dem 9. Jh. auf 10–15 BuchstabenBuch-stabe gesunken, was er als Zeichen des Wechsels von der Kopie durch DiktatDiktat zur „leisenLautstärkeleise“ visuellenvisuell Kopie deutet.2 Die Innovationen in der Gestaltung von Manuskripten seit dem 7. Jh. seien die Voraussetzung dafür gewesen, dass Texte und deren Sinn nun rein visuell mit dem AugeAugen erfasst worden sein könnten, ohne den „Umweg“ über die orale Realisation gehen zu müssen.
Die Grundthese von Saenger ist in mehrfacherLektüreMehrfach- Hinsicht zu hinterfragen: a) So ist der handschriftliche Befund in einer breiteren diachronen Perspektive keinesfalls so eindeutig, als dass einem Sinken der durchschnittlichen Zeilenlänge im 9. Jh. eine Signifikanz zukommen könnte, wie Saenger sie postuliert.3 b) Außerdem finden sich schon in antiken Hss.Handschrift/Manuskript WorttrennungenWort-trennungen (s. Schrift), wie unten ausführlich zu zeigen sein wird. Schon jetzt ist darauf hinzuweisen, dass insbesondere antike bilinguale Texte durchaus Worttrennungen kannten. Daher schlussfolgert Deckey, die diese HandschriftenHandschrift/Manuskript untersucht hat, m. E. vollkommen zu Recht: „The ancients were fully aware of the possibility of word divisions and, on the whole, chose not to use it.“4 b) Saengers Überlegungen zur Signifikanz von Worttrennungen und Überlegenheit für die Ökonomie des Leseprozesses basieren auf älteren, mittlerweile überholten kognitionspsychologischen Lesemodellen, in denen die unmittelbare Wahrnehmung von Wortgrenzen anhand der äußeren Umrisse (Bouma-shape) eine entscheidende Rolle für die WorterkennungWort-erkennung gespielt hat („Wortüberlegenheitstheorien“).5 Zudem geht Saenger d) im Anschluss an das sog. Zwei-Wege-Modell zur Konzeptualisierung der Worterkennung davon aus, dass verschiedene SchriftsystemeSchrift-system mit unterschiedlichen kognitivenkognitiv Verarbeitungsprozessen verbunden sind: Die Dekodierung von Schriftzeichen funktionierte über einen visuellenvisuell oder lexikalischen Weg, der einen direkten Zugang zu den im mentalen Lexikon gespeicherten Wörtern ermögliche. Bei Alphabet- und Silbenschriften hingegen müssten die Wörter zunächst unter Anwendung von Phonem-Graphem-Korrespondenzregeln phonologischPhonologie realisiert werden, damit das Gehirn die Bedeutung eines Wortes erkennen könne. Der visuelle Weg gilt dabei als effizienterer Weg, während der nicht-lexikalische Weg über das phonologische System als Umweg interpretiert wird, den vor allem ungeübte Leserinnen und LeserLeser bzw. Lernende einsetzten.6
Zwei-Wege-Modelle sind zwar in der empirischen Lese-Lern-Forschung und vor allem in der Dyslexieforschung sehr einflussreich und vor allem für das Englische, an denen die Zwei-Wege-Modelle entwickelt worden, heuristischHeuristik hilfreich.7 Allerdings enthalten die Zwei-Wege-Modelle auch gravierende Schwächen, die insbesondere ihre Übertragbarkeit auf andere Sprach- und SchriftsystemeSchrift-system – und damit auf die hier besprochene Problematik – in Frage stellen: Neben a) der fehlenden Generalisierbarkeit des an der englischen Sprache – einer Sprache mit vielen unregelmäßig ausgesprochenen Wörtern – entwickelten Modells, die wohl das größte methodische Problem für die Anwendung auf das Lesen antiker Sprachen darstellt, kann es b) den sog. Konsistenzeffekt8 nicht erklären, arbeitet c) mit einer begrenzten Anzahl von Phonem-Graphem-Korrespondenzregeln und unterstellt d) eine zu langsame GeschwindigkeitLese-geschwindigkeit der Arbeit des phonologischenPhonologie Systems.9 Für das Chinesische, das Saenger als Beispiel einer Nicht-Alphabet/SilbenschriftSilbe für den lexikalischen Weg heranzieht, ist sogar experimentell ausführlich gezeigt worden, dass beide Wege zusammenarbeiten.10 Für Alphabetschriften konnte darüber hinaus gezeigt werden, dass auch beim nicht-vokalisierendenStimmeinsatznicht-vokalisierend Lesen ein phonologischer Dekodierungsprozess ablaufe (s. u. die Überlegungen zur inner reading voiceStimmeinnere (inner reading voice)), obwohl lautLautstärkelaut des Zwei-Wege-Modells lediglich auf Phonem-Graphem-Korrespondenzregeln zurückgegriffen werden dürfte.11
Die „Wortüberlegenheitstheorien“ wurden sogar schon in den 1980er Jahren experimentell als insuffizient zur Erklärung der kognitivenkognitiv Prozesse der Erkennung von Wörtern im Leseprozess herausgestellt:12
„These results [i.e., of the cited experimental studies] also point to the inadequacy of template theories in dealing with the written word recognition since they indicate that overall word shape plays no important role in visual word recognition“.13Wort-erkennung
Auch in jüngeren Untersuchungen ist diese Sichtweise bestätigt worden.14 Anstelle von „Wortüberlegenheitstheorien“ und „Zwei-Wege-Modellen“ sind in der modernen kognitionspsychologischKognitionswissenschaften und neurowissenschaftlich ausgerichteten