a0607941 [Main]

2. Aufgabe

1. 
Welche Aussage trifft J. Knight zur Verständlichkeit wissenschaftlicher Texte? 
 
Der durchschnittliche wissenschaftliche Artikel ist oft sehr schwer zu lesen. Auf Grund der schweren Lesbarkeit sind sie auch schwer zu verstehen. Einer der Gründe für die schwere Verständlichkeit ist die zunehmende Aufsplitterung der Wissenschaften in eine immer größer werdenden Zahl von Subdisziplinen, die natürlich jede ihr eigenes Vokabular entwickelt hat. In früheren Zeiten waren wissenschaftliche Artikel genau so leicht lesbar wie eine durchschnittliche Zeitung gehobenen Niveaus. Durch diesen Dschungel der verschiedenen „Jargons“ ist die Lesbarkeit vieler Artikel verloren gegangen, deshalb versuchen viele Journale leicht zu lesende Zusammenfassungen dieser Artikel zu produzieren wobei bei online Artikel zunehmen web passierende Glossare verlinkt werden. J. Knight ist der Auffassung, dass man viele solche Artikel nur durch Verbesserung des Schreibstils zu einer leichteren Lesbarkeit transformieren kann. Er führt auch einige Beispiele dazu an.  
 
 
Welche Instrumente zur Messung von Textverständlichkeit werden von ihm angeführt? 
 
Grundsätzlich ist die Qualität „Lesbarkeit“ nicht leicht zu quantifizieren 
Der in Microsoft-Word verwendete Zugang (Flesch Reading Ease Scale), misst die mittlere Länge von Wörter und Sätze, um daraus die Anzahl der Bildungsjahre zu errechnen, die man zum Verstehen des Textes benötigt. Diese Methode hat zwei prinzipielle Schwächen. Erstens sind oft lange Sätze dem Leser leichter verständlich (weil die Struktur der langen Sätze dem Leser es erleichtern dem Gedankengang des Schreibers zu folgen) als ein Durcheinander von kurzen Sätzen. Zweitens können gebräuchliche Wörter des Alltags relativ lang sein (z.B. Professor), wobei viele technische Termini kurz sind (z.B. Meson, Genom). Für die Lesbarkeit eines Textes gilt daher : je größer der Anteil von gebräuchlichen Wörter in einem Artikel ist, desto leichter ist er zu verstehen. 
 
Um diese „lexikale Schwierigkeit“ zu quantifizieren, entwickelte Donald Hayes (Soziologe) eine numerische Skala (LEX). Diese Skala basiert auf das American Word Frequency Book. Es listet 87 000 Wörter je nach ihrer Verwendungshäufigkeit in Textbüchern, Geschichten, Magazinen, Enzyklopädien auf, die in US-amerikanischen Grundschulen des Jahres 1969 verwendet wurden. 
In der LEX-Auswertung werden zuerst die ersten 75 häufigsten Wörter (aufgrund ihres geringen Informationsgehaltes) ignoriert. Danach wird die so genannte „kumulative Proportion“ eines Wortes gegen den Logarithmus seines Listenranges aufgetragen. Für ein Wort mit dem Listenrang 100, ist die kumulative Proportion gleich des Prozentsatzes derjenigen Wörter in dem Text, die in ihrem Listenrang der Häufigkeit zwischen 75 und 100 liegen. 
 
 
2. 
Bei den Wikipedia-Artikeln ist es auffallend, dass der Anteil an allgemeinverständlicher Sprache in sehr vielen Artikeln sehr hoch ist. Zumindest gewinnt man den Eindruck, dass man sich um eine allgemeinverständliche Sprache bemüht. Gute Beispiele sind Biographien (Albert Einstein, Charles Darwin, Ludwig Wittgenstein, Elfriede Jelinek). Auch bei wissenschaftlichen Sachverhalten (Relativitätstheorie, Evolution), gelingt es oft sehr gut aber nicht immer (Klonen). Bei Büchern und Werken (Tractatus logico-philosophicus, Ein Sportstück) weist oft die Beschreibung der Struktur und Entstehungsgeschichte einen höheren Grad an allgemeinverständlicher Sprache auf, als deren Deutung und Interpretation. Ganz leicht verständlich dagegen sind die Beschreibungen geschichtlicher Ereignisse, wie z.B. Berliner Mauer. Der Grad der Verlinkungen der Jargonbegriffe und Fremdwörter zu den Erklärungen ist meist sehr hoch, aber nicht immer (z.B. Klonen).  
Letzte Änderung: 23.04.2009, 22:46 | 500 Worte