weblog.hist.net

Wikipedia. Ein Web 2.0-Projekt, das eine Enzyklopädie sein möchte

Obwohl sich in den letzten Jahren mit der sogenannten Wikipedistik ein eigentlicher Forschungszweig rund um Wikipedia etabliert hat und in diesem Bereich auch internationale Kooperationen bestehen, scheint im konkreten Umgang mit dem Phänomen Wikipedia – insbesondere was die Schulen betrifft – noch immer grosse Verunsicherung zu herrschen: Darf man aus der Wikipedia zitieren? Eignen sich die Texte als Einstiegslektüre? Wie zuverlässig sind die historischen Fakten und Daten, die man in der Wikipedia findet? Und: Gibt es eine Möglichkeit, die Zuverlässigkeit einzelner Einträge zu überprüfen?

Die Auseinandersetzungen um diese und noch weitere Fragen rund um Wikipedia halten nun schon seit Jahren an und ein Ende scheint sich noch nicht abzuzeichnen. Schule und Universität versuchen zwar, zunehmend pragmatisch auf Wikipedia zu reagieren, aber beantwortet wurden die Fragen eigentlich erst ansatzweise. Die Fragen werden auch hier nicht eine Antwort finden. Ziel dieses Beitrages ist es vielmehr, einen möglichen Rahmen für die Diskussionen rund um Wikipedia zu definieren und auf aktuelle Probleme des Phänomens Wikipedia im Zusammenhang von Schule und Universität hinzuweisen.

Denn ein – durchaus faszinierendes – Phänomen ist Wikipedia in der Tat. Es ist, so könnte man etwas überspitzt formulieren, zusammen mit Facebook das wohl komplexeste Experiment des Web 2.0. Der Ausdruck Web 2.0 steht nicht etwa für eine technisch neue Version des World Wide Web, sondern umschreibt vielmehr den Umstand, dass in der Mitte der Nullerjahre wieder Schwung in der Netzwirtschaft gekommen ist, nachdem das Platzen der sogenannten Dotcom-Blase 2000 zu einer jahrelangen Lähmung geführt hatte. Tim O’Reilly, der als Leiter des gleichnamigen Fachverlages sehr zur Popularisierung des Web 2.0-Begriffes beigetragen hatte, nannte einige Punkte, die das Web 2.0 charakterisierten: Erstens seien Web 2.0-Dienste als Service-Plattformen konzipiert, auf der online verfügbare Dienstleistungen angeboten werden, die bisher hauptsächlich lokal auf dem eigenen Computer ausgeführt wurden. Dazu gehören Text- und Bildverarbeitung, Kalender, Literaturverwaltung und vieles andere mehr. Zweitens werde im Web 2.0 die ,,kollektive Intelligenz der Nutzer“ miteinbezogen, etwa bei Projekten wie Wikipedia. Die deutschen Medien haben für dieses Phänomen den Begriff „Mitmach-Netz“ erfunden. Drittens, so O’Reilly, stünden im Web 2.0 Daten im Mittelpunkt, die von den Benutzenden auf den Plattformen eingegeben werden. Dieser „user generated content“ bilde zugleich auch das wichigste Kapital der Plattformen. Der gegenwärtig erfolgreichste Web 2.0-Dienst Facebook veranschaulicht mit einem geschätzten Marktwert von ungefähr 50 Milliarden (!) Dollar anschaulich, um welche Dimensionen von Kapitalgenerierung es sich hier handelt. Bei rund 700 Millionen Benutzerinnen und Benutzern weltweit bedeutet dies, dass die persönlichen Daten, die jeder Einzelne Facebook zur Verfügung stellt, rein rechnerisch etwa 70 Dollar Marktwert generieren.

Und bei Wikipedia? Da Wikipedia als eine nicht-gewinnorientierte Organisation aufgebaut ist, gibt es weder einen Marktwert des gesamten Projektes noch einen monetären Wert, den die von den Mitarbeitenden generierten Inhalte schaffen könnten. Wikipedias Kapital ist vielmehr symbolischer Natur. Seit Jahren schon zählt die Online-Enzyklopädie zu den zehn am häufigsten besuchten Netzadressen weltweit. Die Zahl der Einträge steigt und steigt – wenn auch nicht mehr so rasant, wie das in den ersten Jahren der Fall war. Wikipedia ist seit Jahren schon Teil unserer „Wissenskultur“ geworden, auch wenn die Inhalte in der Wikipedia, wie noch zu zeigen sein wird, wenig mit „Wissen“ zu tun haben.

Sowohl für die Geschichtswissenschaft als auch für den Geschichtsunterricht stellt Wikipedia deshalb eine Herausforderung dar, auf die man auf ganz verschiedene Arten reagieren kann. Dabei lassen sich vier grundsätzlich verschiedene Herangehensweisen definieren: Eine vornehmlich soziologische Perspektive fokussiert auf die sozialen Interaktionen bei der Erstellung und Nutzung von historisch relevanten Wikipedia-Einträgen und stellt somit die Frage nach Macht und Einfluss, aber auch nach Vernetzung und Kooperation in den Mittelpunkt. Ein zweiter, mehr geschichtswissenschaftlicher Zugriff auf Wikipedia, untersucht die Inhalte und Diskurse, die in der Wikipedia geführt werden und beschäftigt sich mit der Zuverlässigkeit, Aktualität und Forschungsrelevanz von geschichtsrelevanten Einträgen. Eine dritte Möglichkeit nutzt die medialen Besonderheiten von Wikipedia und analysiert mit entsprechenden Computerprogrammen die grossen Datenmengen, die als „Nebenprodukt“ bei der Erstellung der Einträge anfallen, etwa die Daten zu den Textrevisionen oder die zu jedem Eintrag automatisch angelegte Diskussionsseite. Viertens schliesslich ist aus einer historiographiegeschichtlichen Perspektive zu fragen, wie Wikipedia als „Wissensquelle“ unser Geschichtsbild prägt und vielleicht sogar die Geschichtsschreibung beeinflusst.

Vier verschiedene Blickwinkel auf Wikipedia

Zu den einzelnen Herangehensweisen: Die Fragen nach Macht, Einfluss und Kontrolle in der Wikipedia beschäftigen die soziologisch geprägte Wikipedistik schon seit geraumer Weile. Die Untersuchungen interessieren sich dafür, wer beim Projekt Wikipedia mit welchen Interessen und Motiven mitarbeitet und wie der Prozess zur Erstellung und Entwicklung der Inhalte organisiert ist. Dabei stellt sich ein grundlegendes Problem, das der Aussagekraft dieser Studien eine limitierte Reichweite auferlegt. Viele Autorinnen und Autoren arbeiten in der Wikipedia anonym oder mit einem Pseudonym. Dieser Umstand verhindert eine repräsentative Befragung der Mitarbeitenden, da ja nicht einmal die Grundgesamtheit aller Mitwirkenden bekannt ist, denn Wikipedia ermöglicht eine Mitarbeit unter mehreren Pseudonymen oder auch vollständig anonym. Über die Mitwirkenden der Wikipedia ist folglich nur bekannt, was diese über sich selbst preiszugeben bereit sind. Wer sich dennoch für die Akteure interessiert, muss sich auf die Spuren, welche in den Log-Dateien und auf den Diskussionsseiten übrig bleiben, konzentrieren. Diese Aufgabe lässt sich sowohl mit den Mitteln der Diskursanalyse in der Tradion von Foucault als auch mit quantitativen Ansätzen der Informationswissenschaft bewältigen. Das Fazit der meisten rezenten Arbeiten ist dabei, dass der Kreis der aktiven Bearbeiter erstaunlich klein ist und zumindest in der deutschsprachigen Wikipedia seit einigen Jahren kein nennenswertes Wachstum mehr verzeichnet wird. Ein grosser Teil an Inhalten wird demnach von einer vergleichsweise kleinen Gruppe von Freiwilligen erstellt. Ähnliche Fragestellungen, aber mit einem anderen Ansatz verfolgt Maren Lorenz, indem sie die Machtstrukturen in der Wikipedia anhand von einzelnen Äusserungen und Beispielen analysiert und die Mischung aus demokratischen, autokratischen und meritokratischen Prinzipien beschreibt.

Die Beschreibung und Analyse der Textentstehung in der Wikipedia und der dahinterliegenden Machtstrukturen fällt nicht in erster Linie in die Domäne der Historiker, die Kenntnis dieser Fragen ist aber – so unser Eindruck – wichtige Voraussetzung dafür, auch die (historischen relevanten) Inhalte der Wikipedia beschreiben und analysieren zu können. Als erster hatte sich Roy Rosenzweig eingehend mit der Frage beschäftigt, ob die Inhalte in Wikipedia über Geschichte von brauchbarer Qualität seien. Dabei verglich er Artikel aus der Wikipedia mit Beiträgen aus herkömmlichen Nachschlagewerken und kam bei der Untersuchung von 25 Biographien amerikanischer Persönlichkeiten in der englischsprachigen Wikipedia, in der American National Biography Online und in Encarta von Microsoft zum Schluss, dass die Wikipedia-Artikel zwar inhaltlich fast durchwegs korrekt, jedoch stilistisch schwach waren. Er bemängelte, dass die Texte oft zusammengestückelte Anhäufungen von Fakten seien, die, meist in Listenform gepresst, jegliches inhaltliches Profil vermissen liessen. Rosenzweig war bei seiner Analyse mit dem gleichen Problem konfrontiert, wie andere Vergleichstests auch: Jede inhaltliche Untersuchung muss sich mit einer Auswahl von Beiträgen begnügen, die untersucht werden. Da aber die Gesamtzahl der relevanten Wikipedia-Artikel nicht nur nicht bekannt, sondern auch hochgradig instabil ist, ist die Bildung korrekter Stichproben gar nicht erst möglich. So bleibt jede Aussage über die Qualität von historischen Wikipeida-Einträgen eine Beschreibung von mehr oder weniger vielen Einzelbeispielen, die zudem nur für einen ganz bestimmten Zeitraum zutrifft und eventuell schon wenige Tage nach dem Besuch der Seite revidiert werden müsste, weil auch die Seite revidiert wurde.

Ein Teil dieser systembedingten Defizite in der Quellenlage lässt sich allerdings kompensieren, wenn man die Möglichkeiten des Redaktionssystems, mit dem Wikipedia erstellt wird, ausreizt. Die Software Mediawiki, die für sämtliche Sprachversionen der Online-Enzyklopädie im Einsatz ist, zeichnet sich durch eine sehr grosse Transparenz aus. Da das gesamte Programm „open source“ ist, also frei modifiziert und erweitert werden kann, ergeben sich für kundige Fachleute vielfältige Möglichkeiten, die enorme Menge an Metadaten, die beim Erstellen der Einträge generiert wird, für Forschungszwecke auszuwerten. Zu diesen Metadaten gehören etwa die minutiös aufgezeichneten Daten sämtlicher Änderungen an den Texten: Wer hat wann was am Text geändert (wobei das „wer“ nicht im Sinne einer Zuordnung zu einer Person, sondern lediglich zu einem Pseudonym oder zu einem eindeutigen Computeranschluss beantwortet werden kann). Darüber hinaus lassen sich solche Artikel-bezogene Daten auch kombinieren: Zu welchen Themenbereichen arbeiten Personen (respektive Pseudonyme), die einen bestimmten Eintrag häufig überarbeitet haben, sonst noch? Lassen sie sich häufig in Diskussionen verwickeln oder korrigieren sie nur stillschweigend Tippfehler und Formalia? Gibt es Themencluster innerhalb der historisch relevanten Einträge, die besonders häufig überarbeitet werden? Häufen sich bei bestimmten Themen sogenannte Edit-Wars? Auch Metadaten, mit denen die Mitarbeitenden die einzelnen Beiträge versehen können, lassen sich mit Hilfe von entsprechenden Analyseprogrammen auswerten, etwa die Kategorisierungsinformationen oder die Georeferenzen, mit denen viele historische Einträge versehen sind. Mit einer algorithmisierten, das heisst regelgestützten Auswertung dieser Daten lassen sich zum Beispiel diskurisve Verläufe, semantische Strukturen und geographische oder epochale Interessensschwerpunkte innerhalb historisch relevanter Wikipedia-Lemmata identifizieren und analysieren. Weitere Faktoren, die von Interesse sein könnten, sind Linkstrukturen, Revisionskadenzen der Einträge, aber auch Intensität und temporale Struktur der Verläufe auf den Diskussionsseiten, die es zu jedem Wikipedia-Eintrag gibt. Ebenfalls in eine solche Analyse einbeziehen lassen sich Visualisierungstendenzen innerhalb der Beiträge – die Frage also, welche Texte wie illustriert werden – und die Struktur der Verlinkungen auf externe multimediale Inhalte. Ein weiterer Aspekt, der in eine solche Analyse einbezogen werden sollte, ist die unterschiedliche Verlinkungsintensität von aussen auf die geschichtsrelevanten Lemmata von Wikipedia. Für einige der hier skizzierten Fragestellungen gibt es bereits Tools, vieles ist zudem zur Zeit bereits in Entwicklung, wie ein Blick auf einschlägige Konferenzberichte und Arbeitspapiere zeigt.
Wikipedia analysieren – aber wie?

Wie aber lässt sich das Geschichtsbild beschreiben, das Wikipedia vermittelt? Lassen sich dazu überhaupt Aussagen machen? Oder ist vielmehr nicht jeder Versuch, Wikipedia unter einem historiographiegeschichtlichen Blick einzuordnen, zum Scheitern verurteilt? Oder anders gefragt: Lässt sich von einem Geschichtsbild etwa der Brockhaus Enzyklopädie sprechen? Liegt es nicht gerade in der Natur einer Enzyklopädie, nicht politische Konzepte, sondern gesicherte Informationen zu vermitteln? Die neuere Enzyklopädieforschung hat gezeigt, dass Enzyklopädien nie nur neutrale Informationsaggregatoren waren, sondern immer auch „Verhandlungsort dessen, was eine Gemeinschaft für wissenswert hält“. Das gilt für Wikipedia nicht minder als für traditionelle Nachschlagewerke. Prodöhl weist darauf hin, dass es nicht nur um die Interpretation des Wissenswerten geht, sondern auch um die Grenzen dessen, was für „wissenswert“ gehalten wird. Damit ist eine der ganz besonderen Eigenschaften von Wikipedia angesprochen, die aber wiederum auf eine lange historische Tradition zurückgreifen kann. Mit rund 1,3 Millionen Einträgen ist die deutschsprachige Version von Wikipedia die zweitgrösste (nach der englischsprachigen und vor der französischsprachigen) und hat damit rein quantitativ längst jede gedruckte Enzyklopädie hinter sich gelassen, weist doch die 21. und bisher letzte Auflage der Brockhaus Enzyklopädie lediglich rund 300’000 Einträge auf. Was aber steht in den rund 1’000’000 Einträgen, die nur in der Wikipedia vorkommen? Ein grosser Teil dürfte auf eine feiner ausdifferenzierte (respektive weniger koordinierte) Lemmatisierung zurückzuführen sein. Ein weiterer Teil aber lässt sich so erklären, dass Wikipedia tatsächlich das, was als „wissenswert“ gilt, neu definiert hat. Dies betrifft insbesondere die Themenbereiche Alltag, Popularkultur und Trivia. Wikipedia hat damit tatsächlich den enkyklios paideia, den Kreis der Bildung unserer Gesellschaft massiv ausgeweitet. Eine ähnliche Entwicklung liess sich schon bei der berühmten Encyclopédie von Denis Diderot und Jean le Rond d’Alembert im vorrevolutionären Frankreich beobachten: Im Laufe der Produktion schwoll die Zahl der geplanten Bände auf 17 an, weil immer mehr Einträge insbesondere aus den Künsten und den Handwerken aufgenommen wurden, die bis zu diesem Zeitpunkt keinen Eingang in den enzyklopädischen Kanon des Wissens gefunden hatten.

Was bedeutet dies für das Thema Geschichte in der Wikipedia? Bereits Rosenzweig hatte eine Dominanz personenbezogener Einträge festgestellt. Quantitative Einschätzungen dazu liegen unseres Wissens nicht vor, doch Versuche deuten darauf hin, dass diese Beobachtung auch heute noch und auch auf die deutschsprachige Version zutrifft. Wenn man etwa mit der Funktion „zufälliger Artikel“ eine Stichprobe aus der deutschsprachigen Wikipedia zieht, lässt sich feststellen, dass ein grosser Teil derjenigen Einträge, die sich dem Feld der Geschichtswissenschaft zuordnen lassen, Personen zum Gegenstand haben. Dieser Befund kann verschieden interpretiert werden: Es könnte auf ein gesteigertes Interesse an prosopographischen und genealogischen Forschungen hindeuten, aber es könnte ebenso gut ein Hinweis darauf sein, dass biographische Einträge wesentlich einfacher zu recherchieren und zu verfassen sind, als zum Beispiel Epochendarstellungen. Die Tatsache wiederum, dass in einer sehr einfach zu recherchierenden Quelle wie es die Wikipedia ist, biographische Darstellungen stärker, als eigentlich die Geschichtsforschung es verlangen würde, präsent sind, könnte wiederum die Geschichtsvermittlung und letzlich auch die Geschichtsschreibung beeinflussen. Trägt also Wikipedia dazu bei, Geschichtsbilder zu zementieren, in denen gleichsam „grosse Männer grosse Taten“ vollbringen?

Die hier skizzierten vier Zugangsweisen bildeten den konzeptionellen und gedanklichen Rahmen für ein Forschungsseminar an der Universität Wien, das im Sommersemester 2010 durchgeführt wurde. Der Fokus lag auf einer inhaltsanalytischer Zugangsweise, wie er hier als zweiter von vier möglichen Blichwinkeln skizziert wurde. Die sozialen Interaktionen wurden – allerdings nicht systematisch – in die Untersuchungen miteinbezogen, algorithmisierte Analysen hingegen nur ganz punktuell durchgeführt. Insgesamt wurde ein Set von 21 Lemmata mit historischen Inhalten definiert, die jeweils einer Themengruppe zugeordnet wurden: Begriffe, Epochen, Ereignisse, Personen und Methoden. Damit war von vorneherein klar, dass sämtliche Ergebnisse eine äusserst geringe Reichweite haben und dass es deshalb nicht darum gehen kann, die Qualität von historischen Einträgen in der Wikipedia zu beurteilen, sondern das Ziel nur sein kann, mögliche Methoden zur Untersuchung von Wikipedia-Inhalten in einem sehr kleinen Rahmen zu erproben!

Nach der Auswahl der Lemmata stellte sich als nächstes die Frage, womit die einzelnen Texte sinnvoll verglichen werden könnten. Ausgangspunkt waren in allen Fällen die aktuellen Versionen der deutschsprachigen Wikipedia, verglichen wurden sie mit dem jeweiligen Text in der englischsprachigen Version, mit der aktuellen Auflage der Brockhaus-Ausgabe sowie mit einem für jede Themengruppe einzeln definierten Referenzwerk. Das Analyseraster unterschied zwischen formalen und inaltichen Merkmalen eines Lemmas. Bei den Formalia wurde zwischen der Beschreibung des Eintrages und der Beschreibung der Metadaten unterschieden. Hintergrund dabei war, dass die Medialität von Wikipedia verschiedene Sichtweisen des Inhaltes erlaubt: Auf der einen Seite präsentiert sich jeder Eintrag als konsistenter Text mit Links, Bildern und Literaturhinweisen. Damit schreibt sich ein Wikipedia-Eintrag in die Traditionslinie des gedruckten Buches ein und evoziert zumindest beim nicht speziell geschulten Benutzer vermutlich ähnliche Erwartungshaltungen, wie es ein gedrucktes Buch tut. Mit wenigen Klicks aber offenbaren sich bei jedem einzelnen Wikipedia-Eintrag zusätzliche Dimensionen, die im analogen Mediensystem kein Pendant kennen. Während es bei Wikipedia möglich ist, die Entstehungsgeschichte eines Beitrages mit allen Änderungen und Korrekturen nachzuvollziehen, können bei einer gedruckten Version lediglich die Veränderungen von Auflage zu Auflage verglichen werden. Die im Prozess der Überarbeitung gemachten Korrekturen, Kürzungen und Erweiterungen sind ebenso wenig sichtbar wie die um diesen Eintrage geführten Diskussionen. Die Aufteilung der Beschreibung in die eigentliche Oberfläche auf der einen und die erst in einem zweiten Schritt sich offenbarenden Metadaten auf der anderen Seite reflektierte diese neuartige Medialität von Wikipedia.

Grosse Unterschiede zwischen den Sprachversionen

Vorbehältlich der oben formulierten Einschränkungen zur Reichweite allfälliger Aussagen liessen sich bei den untersuchten Einträgen einige Trends beoabachten: So korrelierte die Länge eines Eintrages nicht mit der enzyklopädischen Relevanz des Themas. Dies widerspricht den gängigen Lesegewohnheiten eines gedruckten Nachschlagewerkes. Da das Printmedium jedem Eintrag meist enge Grenzen bezüglich des Umfanges setzt, erhalten Enzyklopädie-Autoren von der herausgebenden Instanz eine bestimmte, auf die intendierte Wirkung und Bedeutung des Beitrages abgestimmte Mengenvorgabe, die wiederum von den meisten Leserinnen und Lesern stillschweigend als Hinweis auf die Bedeutung des entsprechenden Themas interpretiert wird: während lange Texte wichtige historische Ereignisse, Epochen oder Personen beschreiben, widmen sich kurze Texte eher peripheren Fragestellungen, lautet der Subtext jeder gedruckten Enzyklopädie. Ganz anders bei Wikipedia: Da es weder eine herausgebende Instanz noch eine medial vorstrukturierte Mengenbeschränkung gibt, ist die effektive Länge eines Beitrages ein reines Zufallsprodukt. Sie sagt weder über die Relevanz noch über die Qualität des Eintrages etwas aus. Unklar ist aber, ob von nicht geschulten Benutzerinnen und Benutzern diese Bruchstelle realisiert und bei der Rezeption des Textes berücksichtigt wird.

Hinsichtlich der Textlänge fiel auch auf, dass bei den untersuchten Themen die Texte in der englischsprachigen Version durchwegs länger waren als die deutschsprachigen. Teilweise dürfte das damit zusammenhängen, dass einige der englischen Einträge früher angelegt wurden und deshalb mehr Überarbeitungen erfahren haben, als die deutschsprachigen Texte. Bemerkenswert war aber auch, dass die englischen Einträge oftmals auch besser und klarer strukturiert waren. Die Texte in den verschiedenen Sprachversionen sind nur in den seltensten Fällen Übersetzungen, oftmals werden aber Passagen von anderen Sprachversionen übernommen, was ja auch im Sinn einer „freien“ Enzyklopädie ist. Eine Analyse der Literaturangaben brachte an den Tag, dass keine sprachübergreifende Rezeption der relevanten Literatur stattfindet. So konzentrierte sich der deutschsprachige Beitrag über die französische Revolution fast ausschliesslich auf deutschsprachige Literatur, während der englischsprachige Text zur mexikanischen Revolution kaum spanischsprachige Literatur nachwiet. Das mag für eine Nutzung im Kontext einer Schularbeit eine Einschränkung sein, mit der man zu leben bereit ist, spätestens in einer Lehrveranstaltung an der Universität entspricht eine solche Engführung nicht mehr den heutigen Erfordernissen eines universitären Unterrichtes. Sehr aufschlussreich waren die Unterschiede zwischen den Wikipedia-Versionen in der Bildsprache, die sich zumindest bei den untersuchten Beispielen beobachten liessen. Der deutschsprachige Eintrag über die Berliner Mauer zum Beispiel zeigte zum Zeitpunkt der Untersuchung vermehrt Bilder, welche die Rolle der Bevölkerung beim Fall der Mauer zeigten, während die englischsprachige Version stärker den politischen Aspekt ins Bild rückte, etwa mit einem Bild Ronald Reagans in Berlin im Jahre 1987. So standen bei der Auswahl der Illustrationen wohl noch stärker als bei den Texten nationale Wahrnehmungen und Vorlieben im Vordergrund.

Bei der näheren Betrachtung der Metadaten zeigte sich sehr schnell, dass die Zahl der Edits, also der Textüberarbeitungen, sehr wenig aussagekräftig ist. Edit-Wars und unterschiedliche Häufigkeiten bei der Zwischenspeicherung können zu völlig divergierenden Werten führen, erst ein genauere Analyse der tatsächlich vorgenommenen Änderungen und der dabei geführten Diskussionen könnte Aufschluss über die Genese und vielleicht auch Hinweise auf die Qualität eines Textes geben. Bei fast allen Einträgen mit vielen Edits zeigte sich, dass jeweils nur ganz wenige Power-Autorinnen und –Autoren für die meisten Überarbeitungen verantwortliche zeichneten. Sehr viele Co-Autoren beschränkten ihre „Mitarbeit“ auf das Ausbessern von Tippfehlern oder auf die formale Korrektur von bibliographischen Angaben und ähnlichem. Stark aggregierte Aussagen wie etwa über die Zahl der Änderungen und der Mitautoren sind also für sich alleine wenig aussagekräftig.

Die Diskussionsfreudigkeit präsentierte sich bei den unterschiedlichen Einträgen sehr verschieden, wenig erstaunte, dass hochspezialisierte Themen wenig Diskussionsbereitschaft erzeugten, während sehr allgemeine Themen wie Epochen oder auch aktuelle Themen aus der Zeitgeschichte mehr Gesprächsbedarf generierten. Der Umgangton in der deutschsprachigen Wikipedia muss in vielen Fällen als wenig freundlich bis aggressiv bezeichnet werden. Potentiellen Mitautoren wird zumeist signalisiert, dass sie sich zuerst den herrschenden Regeln unterordnen müssen und dass es für Neulinge nur einen sehr geringen Gestaltungsspielraum gibt. Diese Ausschlussmechanismen laufen teilweise über eine kryptische Sprache, teilweise mit Hinweisen auf die sehr umfangreichen Regelwerke, die zuerst zu konsultieren seien.

Sehr oft wurden vor allem bei thematisch umfassenderen Einträgen Fragen der Abgrenzung und Grenzziehung diskutiert. Welcher Zeitraum ist einer bestimmten Epoche, etwa der Antike, zuzurechnen? Wie lassen sich verschiedene, aber doch zusammenhängende Wortbedeutungen – etwa beim historischen und philosophischen Begriff Aufklärung – voneinander abgrenzen? Das Niveau der Argumente variierte von fachlichen Beiträgen bis hin zu grotesk unbedarften Wortmeldungen, wie etwa folgender Periodisierungsvorschlag für die Antike zeigt: „hi ich wollt nurmal sagn dass ich dafür bin dass die antike von 2000 v. Chr. bis ca. 500 n. Chr. datiert sein sollte wir beschäftigen uns gerade in geschichte leistungskurs damit und unser lehrer, sowie unser buch sagen dass die antike ungefähr mit der minoischen kultur beginnt, welche so um 2000v Chr mit der indogermanischen völkerwanderung beginnt… thx wenn ihr den eintrag ändert“ In seiner Antwort erläuterte Marcus Cyron, ein sehr aktiver Wikipedia-Administrator, weshalb der Eintrag nicht geändert werde und erklärte gleich en passant was unter Geschichte zu verstehen sei: „Hallo, den werden wir nicht ändern. Leider scheinen Geschichtslehrer immer nur wenig Wert auf das Studium der antiken Geschichte zu legen. Man kann sicher überlegen, wo man den Beginn der Antike einsetzen läßt. Gängig sind 1200 und 800 v. Chr. als Fixpunkte, wobei solche Daten nie wirklich passend sein können. 2000 v. Chr. ist auf alle Fälle zu früh. Die Minoische Zeit fängt übrigens schon vor 3000 v. Chr. an. Geschichte – und darum geht es ja – hat etwas mit Schriftlichkeit zu tun. Die früheste Schrift des Kulturkreises ist Linear A (17. bis 15. Jh. v. Chr.), ist noch nicht richtig entziffert, Linear B (15. bis 12. Jh. v. Chr.) ist keine Schrift, mit der sich Geschichte rekonstruieren lassen würde. Deshalb setzt die Geschichte mit dem eigentlichen Beginn der griechischen Schriftlichkeit ein […].“ Als Historiker mag man über solche Diskussionen lächeln – sowohl über den Schüler, der die Enzyklopädie an das im Leistungskurs Geschichte Gehörte anpassen möchte, als auch über die Antwort. Doch zeigt dieses Beispiel auch, wie nah fundiertes Wissen und blanker Unsinn beieinander stehen können. Dabei sind sich einige der Wikipedianer durchaus der Verantwortung bewusst, die sie – vor allem gegenüber Schülerinnen und Schülern – haben, wie die genaue Lektüre der Diskussion zum Thema Französische Revolution gezeigt hat: „[…] da sicherlich auch viele Schüler auf diesen Artikel zugreifen, stehen wir an dieser Stelle besonders in der Verantwortung.“

Wikipedia: Als Einstieg nicht geeignet

Die inhaltliche Analyse und der Vergleich mit gängigen Fachdarstellungen ergab ein sehr durchzogenes Bild: Auf der einen Seite liessen sich in den wenigen untersuchten Einträgen keine falschen Fakten finden. Gerade die Personen-Einträge waren sehr ausführlich und präzise, wenngleich auch hier in den beiden Sprachversionen unterschiedlich gewichtet wurde. So widmete beispielsweise der englischsprachige Eintrag zu Dollfuss seiner Körpergrösse einen eigenen Absatz und unterliess es auch nicht, auf seinen Spitznamen „Millimetternich“ hinzuweisen, während in der deutschsprachigen Version lediglich auf das Faktum seiner Kleinwüchsigkeit hingewiesen wurde. So besteht andauernd die Gefahr, dass sich Trivia und Varia unter die an sich korrekten und historisch allgemein anerkannten Fakten mischen.

Gravierend ist aber der Umstand, dass vor allem in der deutschsprachigen Wikipedia Einträge über historische Epochen oder komplexere historisch Zusammenhänge keinerlei Gewähr bieten, gemäss den im Fach anerkannten Kriterien und Strukturen in ein Thema einzuführen. Die zu Beginn der Untersuchungen formulierte Vermutung, dass sich Wikipedia zwar nicht für geschichtswissenschaftliche Arbeiten eigne, aber durchaus ein sinnvolles Mittel sei, um sich rasch einen Überblick über ein etwas komplexeres Thema zu verschaffen, musste eindeutig korrigiert werden. Je komplexer ein Thema ist, umso grösser ist das Risko, dass der Wikipedia-Text eher zur Verwirrung als zur Klärung beiträgt – und dies, obwohl alle Fakten für sich genommen korrekt sind.

Damit präsentiert sich ein ganz basales enzyklopädisches Problem, das sich aufgrund der medialen Rahmenbedingungen bei Wikipedia erheblich zu steigern scheint: Information ist nicht gleich Wissen und die Aufgabe von Enzyklopädien kann es nicht sein, komplexe Wissensinhalte zu vermitteln. Michael Gorman, Präsident der American Library Association, erläuterte das Problem am Beispiel Google Books mit folgenden Worten: „The nub of the matter lies in the distinction between information (data, facts, images, quotes and brief texts that can be used out of context) and recorded knowledge (the cumulative exposition found in scholarly and literary texts and in popular nonfiction). When it comes to information, a snippet from Page 142 might be useful. When it comes to recorded knowledge, a snippet from Page 142 must be understood in the light of pages 1 through 141 or the text was not worth writing and publishing in the first place.“ Und mit diesem Problem kämpft auch Wikipedia: Es ist zwar von der Selbstdeklaration und vom Auftreten her eine Enzyklopädie, die Informationen zur Verfügung stellt, aber das Werk wird zunehmend wie eine Einführung in alle möglichen Themen rezipiert, das Wissen bereit hält. Dies hat zum Teil mit dem Schreibstil der Texte zu tun: Da es sich vorwiegend um Laien handelt, fehlt den Autoren die Kompetenz, in einem enzyklopädischen Stil zu schreiben. Dies wiederum suggeriert den oftmals auch in der Textsortenerkennung wenig geschulten Lesern, dass es sich um erklärende, Wissen vermittelnde Texte handelt. Die fehlende Platzbeschränkung verstärkt diesen Eindruck und führt zu eklatanten Fehleinschätzungen in der Beurteilung der Texte.

Fasst man die Ergebnisse dieser kleinen Untersuchung zusammen, ergibt sich kein besonders optimistisch stimmendes Bild: Wikipedia ist für die seriöse Beschäftigung mit dem Thema Geschichte kein brauchbares Mittel. Es kann zwar an Anschauungsmaterial für historische Diskussionen dienen, wenn man die Debatten um einzelne Einträge im Unterricht auswertet oder verschiedene Sprachversionen miteinander vergleicht. Das setzt aber ein gewisses Mass an Vorwissen und kritischem Bewusstsein dem Wahrheitsgehalt historischer Darstellungen gegenüber voraus. Angewandt mit dieser Einschränkung ist Wikipedia eine ausgezeichnete Ergänzung zu den bisher vor allem in der Zeitgeschichte verwendeteten Quellen Zeitungsberichte oder Fernsehdokumentationen. Die Realität aber ist in den meisten Fällen vermutlich eine andere: Wikipedia wird hauptsächlich als Einstieg und erste Lektüre bei der Erarbeitung eines neuen Themas verwendet – ob von der Lehrperson empfohlen oder von den Schülern (respektive den Studierenden) als die am einfachsten zugängliche Quelle identifiziert. Dies lässt sich kaum ändern und es muss auch nicht geändert werden. Viel sinnvoller ist es, den Umgang mit Wikipedia im schulischen (und wenn nötig auch im universitären) Unterricht zu thematisieren und zu üben. Denn Wikipedia bietet, anders als die meisten anderen Online-Tools, gerade wegen seiner Offenheit zahlreiche Hilfestellungen, um das Potential und die Risiken eines Textes auch als Laie einigermassen abschätzen zu können.

Vier simple Regeln für die Nutzung von Wikipedia

Mit vier simplen Regeln versehen lässt sich Wikipedia auch im Unterricht sinnvoll nutzen. Zum einen sollte es Pflicht sein, bei jeder Verwendung eines Wikipedia-Eintrages die entsprechende Diskussionsseite zu konsultieren. Bereits beim ersten Querlesen lässt sich die Struktur und die Intensität der Debatten einschätzen. Sind zum Beispiel immer nur die gleichen zwei, drei Diskutanten involviert, liegt die Vermutung nahe, dass es sich um durchaus nicht fachlich begründete Debatten handelt, sondern um selbstverliebte Besserwisserei einiger eher zeit- als geistreicher Wikipedianer. Tauchen aber immer wieder die gleichen grundsätzlichen Fragestellungen auf, lohnt sich ein Blick in eventuell angegebene weiterführende Literatur. Die zweite Regel besagt, dass mit der gleichen Aufmerksamkeit die Versionsgeschichte durchgeschaut werden sollte: Was wurde in welcher Häufigkeit geändert? Mit welchen Themen beschäftigen sich die Hauptautoren sonst noch in der Wikipedia (die werden jeweils automatisch verlinkt), was geben die Autoren von sich preis? Die Informationen aus den Diskussionsseiten und Versionsgeschichten ergeben unter Umständen ein recht präzises Bild darüber, wo die Problemzonen des Textes sind und wie breit abgestützt die verwendeten Informationen sind. Hier knüpft auch die dritte Regel an: Was lässt sich aus den Zusatzinformationen unter „Siehe auch“, „Literatur“, „Weblinks“ und „Anmerkungen“ herauslesen? Unter dem Stichwort „Siehe auch“ werden weitere Wikipedia-Einträge verlinkt, die zum vorliegenden Text einen Bezug haben. Damit lassen sich sehr schnell Themenaspekte identifizieren, die anderswo abgehandelt werden. Die Literaturliste zeigt, ob Fachliteratur oder nur allgemeine Sachbücher verwendet wurden, das gleiche gilt für die Weblinks. Hier bietet die Möglichkeit, diese Online-Ressourcen direkt anzuklicken die Möglichkeit, sich sehr schnell einen Eindruck von den Quellen zu machen, die für die Erstellung der fraglichen Seite von Bedeutung waren. Die Anmerkungen hingegen entsprechen den genauen Fundstellen für im Text gemachte Aussagen. Sie zeigen, wie breit sich die Autoren wirklich auf neuere Literatur abgestützt haben oder ob sie vielleicht für den Text doch nur ein Sachbuch verwendet und die Seite dann mit einer imposanten Literaturliste ergänzt haben. Als vierten Punkt kann man – nicht zuletzt aufgrund der Ergebnisse der Wiener Untersuchung – empfehlen, den entsprechenden Eintrag in möglichst viele Sprachversionen nachzulesen. Die Navigationsstruktur der Mediawiki-Software erleichtert diesen Arbeitsschritt sehr, seit verfügbare Sprachversionen eines Textes jeweils in der linken Navigationsleiste angezeigt werden.

Alle diese Regeln beanspruchen Zeit, verhindern aber dadurch einen achtlosen Umgang mit Informationen, die sich durch eine sehr prekäre Qualität und durch wenig Stabilität auszeichnen. Wikipedia ist Teil unserer modernen Wissensgesellschaft geworden und hat dazu beigetragen, die Unterschiede zwischen Information und Wissen zu vernebeln. Schule und Universität sind weder berufen noch in der Lage, dies zu ändern. Ihre Aufgabe ist es vielmehr, den auszubildenden Schülern und Studierenden Hilfsmittel auf den Weg zu geben, um mit diesen Herausforderungen besser umgehen zu können. Wikipedia ist ein wertvolles Instrument, das aber eine reflektierte Nutzung voraussetzt.

Hinweis

Es handelt sich um die unkorrigierte und fussnotenlose Fassung eines Textes, der in Geschichte in Wissenschaft und Unterricht, 63 (2012), 5/6, S. 261-270 erschienen ist. Bitte nur nach der gedruckten Ausgabe zitieren. Diese Fassung steht unter einer Creative Commons BY-NC-ND 2.0-Lizenz.

Bildnachweis: Mypouss/flickr.com mit CC-BY.

14 Kommentare auf “Wikipedia. Ein Web 2.0-Projekt, das eine Enzyklopädie sein möchte”

  1. Jonas meint:

    Wikipedia ist schon was Feines und wie maßgeschneidert für das heutige Zeitalter. Bis daraus aber eine wirklich verlässliche Quelle hervorkommt, wird es aber noch einige Jahre dauern. Eventuell könnten alle Artikel von offizieller Seite abgesegnet werden. Sowas wäre immer noch am effizientesten. Doch das würde Unmengen an Geld kosten.

  2. MS meint:

    Zwei Gedanken dazu:

    1) Facebook ist nach dem Aktiendebakel keine 50 Milliarden mehr wert.
    2) Die unterschiedliche Bebilderung in versch. Sprachversionen könnte auch mit dem unterschiedlichen Umgang mit Lizenzen zusammenhängen. Die englische Wikipedia erlaubt auch unfreie Bilder im Rahmen des amerikanischen Fair Use während die deutsche nur freie Bilder akzeptiert. Das hat massive Auswirkungen auf die Bildauswahl.

  3. Neue Beiträge zur Wikipedia « Medien im Geschichtsunterricht meint:

    […] Einige Tage vorher hatte bereits Peter Haber “die unkorrigierte und fussnotenlose Fassung” seines Artikels in das Histnet-Blog gestellt, der in Geschichte in Wissenschaft und Unterricht (63, 2012, S. 261-270) erschienen ist. Von Seiten der wissenschaftlichen Betrachtung der Wikipedia fasst der Titel bereits den Tenor des Beitrags zusammen: “Wikipedia. Ein Web 2.0-Projekt, das eine Enzyklopädie sein möchte“. […]

  4. Peter Haber meint:

    Zu Recht weist Kollege Bernsen darauf hin, dass mein Text «Schule und Universität» jeweils zusammenfasst und dass damit die Praktikabilität insbesondere meiner «vier simplen Regeln für die Nutzung der Wikipedia» leidet. Ich hätte einschränkend schreiben sollen, dass sich das auf die gymnasiale Oberstufe und Universität bezieht, Und natürlich ist nicht gemeint, dass stur bei jedem Nachschlagen alle vier «Regeln» durchexerziert werden müssen. Wäre GWU ein offenes eJournal, dann könnten wir diesen kurzen Gedankenaustausch dort führen und ich die Einwände von Daniel Bernsen gleich einarbeiten … Merci ainewäg!

  5. Daniel Bernsen meint:

    Das ist wirklich schade. Auch nach meiner Beobachtung suchen viele Kollegen hier nämlich in der Tat nach Antworten und Rezepten: Wie gehe ich mit „Wikipedia“ im Unterricht um?

    Und da sind die aufgeführten Regeln aus meiner Erfahrung, wie beschrieben, selbst für die gymnasiale Oberstufe nur sehr begrenzt hilfreich bzw. umsetzbar.

    Und was das „Durchexerzieren“ angeht, habe ich das tatsächlich so gelesen, dass im Beitrag eine „sinnvolle Nutzung“ nur bei der kombinierten Berücksichtigung aller vier Regeln postuliert wird.

  6. Peter Haber meint:

    Vorschlag: Wir erarbeiten auf Grundlage der vier Punkte und anderer bereits existierender Empfehlungen einen Wikipedia-Guide für den Unterricht. Wir beide könnten ja mal anfangen und hoffen, dass dann noch weitere Kolleginnen und Kollegen einsteigen. Falls das auf Interesse stösst, dann richte ich auf wiki.hist.net eine Seite ein.

  7. Daniel Bernsen meint:

    Das ist ein guter Vorschlag. Bin ich gerne dabei und es werden sich sicher noch Kollegen finden, die das unterstützen und etwas beitragen.

  8. Jan Hodel meint:

    Ich habe in meinem Artikel in der GWU, den ich aus Platzgründen hier nicht vollumfänglich „einfüllen“ mag, einige konkrete Überlegungen dazu angestellt, wie die Wikipedia im Unterricht sinnvoll eingesetzt werden könnte. Ich seh mal zu, dass ich einen Auszug zusammenschustere oder eine Zusammenfassung hier platziere.

  9. Daniel Bernsen meint:

    Folgende Heransgehensweise, umgesetzt in eine Unterrichtseinheit für die Mittelstufe, hatte ich vor einem halben Jahr gemeinsam mit meinem 12er-Leistungskurs Geschichte erarbeitet:

    http://goo.gl/xkJv6

  10. Kriterien zur Beurteilung von Wikipedia Artikeln? « studienfutter meint:

    […] behandelten Inhalten fast unmöglich die Qualität einfach zu beurteilen. Dennoch stellen die vier Regeln von Peter Haber eine zwar mühevolle, jedoch auch gründliche Herangehensweise dar. Nach der Auswertung von 1066 […]

  11. Aufruf zur Mitarbeit: Wikipedia-Guide für den Geschichtsunterricht « Medien im Geschichtsunterricht meint:

    […] den Schulunterricht reagiert und eine Seite im Histnet-Wiki eingerichtet: “Wir haben dann beschlossen, in unserem Wiki einen «Wikipedia-Guide für den Unterricht» zu erstellen. Jede/r ist herzlich […]

  12. martin lindner meint:

    @Peter Haber: die gretchenfrage, die ich beim lesen des textes auf der zunge hatte – haben sie selbst schon nicht-marginal wikipedia-artikel angelegt oder verbessert? wenn ja (wie ich vermute), warum erzählen sie nichts davon im text? und falls nein, warum nicht?

    die fragen sind im übrigen ganz unpolemisch gemeint.

  13. Peter Haber meint:

    @Martin Lindner: Ich hatte vor einigen Jahren bei den Kollegen der Medienwissenschaft hier in Basel ein Seminar mit dem Titel «Schreiben für Wikipedia» angeboten. Im Vorfeld hatte ich selbstverständlich auch einige Schreibversuche unternommen (vermutlich eher als marginal zu bezeichnen). Nach dem Seminar beschloss ich, mich auf die Position des Beobachters zu beschränken, weil ich der Meinung bin, dass es schwierig ist, Wikipedist und Wikipedianier in einem zu sein. Seither beobachte ich einige wenige Einträge, bei denen ich mich einigermassen gut auskenne, sehr genau. Für das auch im Text erwähnte Forschungsseminar an der Uni Wien haben wir im Team einige Lemmata zu historischen Themen sehr genau uns angeschaut und auch die Diskussionen und Änderungsverläufe analysiert. Insofern sind mir die «Produktionsbedingungen» in der Wikipedia durchaus vertraut.

  14. AndreasP meint:

    „Wenn man etwa mit der Funktion „zufälliger Artikel“ eine Stichprobe aus der deutschsprachigen Wikipedia zieht, lässt sich feststellen, dass ein grosser Teil derjenigen Einträge, die sich dem Feld der Geschichtswissenschaft zuordnen lassen, Personen zum Gegenstand haben“

    Dieses ewige Gejammer um die ach so primitive Personenverliebtheit der Wikipedia geht mir langsam auf den Geist. Wie sieht es denn mit anderen Nachschlagewerken aus? Das ist doch dort überhaupt nicht anders. Wenn’s um Geschichte geht, geht es bei besonders umfangreichen Nachschlagewerken nun einmal oft um Personen (und übrigens wie in der Wikipedia auch in ähnlicher Anzahl um Orte), ob die Lexika nun RE, LexMA, ADB oder NDB heißen. Viele Überblicksdarstellungen der Wikipedia taugen nicht viel, das ist ja wahr, aber an der Artikelanzahl lässt sich das in keiner Weise seriös festmachen, was schon in der Natur der Sache „Geschichte“ liegt. Es gibt schlichtweg nicht 200.000 Artikel zu Epochen zu schreiben, allerdings natürlich völlig unproblematisch 200.000 Artikel zu historischen Personen (und übrigens auch Historikern) und natürlich zur Geschichte von Staaten, Ländern, Städten, Klöstern, Dörfern (das sind nämlich durchaus auch Artikel zu historischen Themen, zumindest haben sehr, sehr viele einen Abschnitt „Geschichte“, der mehr oder weniger gut ist). Und ich kenne z. B. kein Lexikon, das derart ausführlich auf die einzelnen Territorien des Hl. Röm. Reichs und ihre oft verworrene Geschichte eingeht oder das derart ausführlich auf historische Verwaltungseinheiten (Ämter, Oberämter, Kreise) eingeht. Selbst die Speziallexika sind in disem Gebiet oft sehr kurz angebunden und dennoch unfassbar fehlerbehaftet, da können sie noch so bei C. H. Beck erscheinen wie der „Köbler“. Das ist natürlich alles erst einmal Hilfswissenschaft, die aber unverzichtbare Grundlage für jede Wissenschaft ist. Mehr kann und soll doch eigentlich kein Lexikon leisten. Der wirkliche Vorteil von Wikipedia, an einem gut aufzufindenden, gut zu aktualisierenden und halbwegs neutralen Ort im Web auf weitere aktuelle Informationsmöglichkeiten in Bibliothek und Netz zu verweisen, sei mal ganz ausgeklammert. Selbst wenn die Wikipedia-Artikel nur Einleitung, Lebensdaten, Koordinaten, Literatur, Weblinks und Normdaten enthalten würden, wären sie schon viel wert.

    Seriös vergleichen lassen sich z. B. nur der biographische Anteil der Wikipedia mit dem biographischen Anteil anderer Nachschlagewerke, oder etwa die Wikipedia-Artikel über Geschichte einzelner Staaten mit derselben Artikelart in anderen Lexika, und dann eben auch die Artikel über Epochen mit denen in anderen Lexika und Handbüchern.

Hinterlassen Sie einen Kommentar: