weblog.hist.net

Historische Quellenkritik im Digitalen Zeitalter

Die meisten Gespräche zum Thema «Geschichtswissenschaft im digitalen Zeitalter» enden früher oder später beim Thema Quellenkritik. Aber was heisst Quellenkritik bei digitalen Quellen? Was haben uns Droysen, Bernheim und andere einschlägige Experten heute noch zu sagen?

Wir haben das Thema hier schon verschiedentlich aufgegriffen in den letzten Jahren, nun widmet sich ein Blog ausschliesslich diesem Thema: Historical Source Criticism. Der Autor, Pascal Föhr, schreibt zur Zeit in Basel eine Dissertation zu diesem Thema. Das Blog verspricht deshalb, forschungsnah und dynamisch zu werden. Also: nichts wie hin und gleich den Feed abonnieren!

OT: Konvergenz, Divergenz und die Zukunft des Service Public bei Radio und Fernsehen

Heute morgen erschien in der besten aller Basler Zeitungen ein Bericht von Christian Mensch über die aktuelle Debatte rund um die geplante Konvergenz von Radio und Fernsehen bei der öffentlich-rechtlichen SRG. Konvergenz? Konvergenz ist heute ein Schlüsselwort in der Medienpolitik und meint die Zusammenführung von Radio, Fernsehen und Onlinemedien unter einem gemeinsamen (digitalen) Dach.

(mehr …)

Nur für starke Nerven….

Es gibt Momente, da überkommt mich mit Schaudern der Gedanke, was Historiker/innen in 100 Jahren wohl über uns frühdigitale Menschen zu Beginn des 21. Jahrhunderts denken werden. Unseren Weblog wird es nicht mehr geben, Windows und Mac wird es nicht mehr geben, Microsoft wird eine vage Erinnerung sein (wie so vieles andere auch), und der persönliche Google-Assistent wird uns morgens beim Aufstehen im Headup-Display, der im Badezimmerspiegel integriert ist, darauf hinweisen, dass wir den Müll runtertragen sollen („Ihr Mülleimer ist voll“). Denn das besorgen der Mann und die Frau der Zukunft noch immer von Hand…

Dann wird vielleicht jemand auf einer uralten Festplatte in einer vergessenen Serverfarm aus der Konkursmasse einer Schweizer Grossbank dieses alte, verpixelte Video (siehe oben) entdecken – was wird der eilends beigezogene Experte für frühdigitale Kulturtechniken daraus für Schlüsse ziehen? (mehr …)

Quellenkritik, Geschichtslernen und „Digitale Historische Methode“

televisionarchive

Quellenkritik (darauf hat Kollega Kreyenbühl bereits hingewiesen) ist ein Thema, zu dem Kollega Haber in seinem Projekt digital.past eingehend nachgedacht hat (auch in diesem Blog immer wieder dokumentiert). Die folgenden Ausführungen möchten diesen Gedanken aus der Warte der Geschichtsdidaktik aufnehmen. Wie hier im Blog bereits angesprochen, halte ich es für wichtig, die historische Methode auf die digitale Ausprägungen der gegenwärtigen Geschichtskultur anzupassen und eine solche „digitale historische Methode“ für die Geschichtsdidaktik nutzbar zu machen. Im Kern geht es um eine Anpassung der Quellenkritik an die Realität digitaler Medien und um die Ausweitung der „Zone des Geschichtslernens“ auf die Recherche. Denn das historische Lernen und Denken beginnt nicht erst, wenn die Quelle oder Darstellung zur Analyse auf dem Schreibtisch vorliegt, bzw. dem Bildschirm leuchtet. Und: Schüler/innen (und auch Studienanfänger/innen) haben sich kaum mit Quellen im klassischen Sinne auseinanderzusetzen, sondern zumeist mit Manifestationen der Geschichtskultur (in der Regel Darstellungen, also Deutungen von Vergangenheit) oder mit neuartigen Quellengattungen in spezifischen Aufbereitungsformen – wie zum Beispiel das September 11 Television Archive, das im obigen Screenshot zu sehen ist. (mehr …)

Google kauft hist.net

Wie Google und hist.net heute bekannt geben, hat Google die Mehrheit am Schweizer Portal für Geschichte und Digitale Medien „hist.net“ übernommen. Für Google ist dies ein weiterer Schritt in die Domäne wissenschaftsorientierter Dienstleistungen im Zusammenhang mit Google Scholar. „Wir sind sehr glücklich, dass wir mit hist.net einen starken Partner im Bereich der Geschichtswissenschaften gewinnen konnten“, lässt sich Geschäftsführer Eric Schmidt in einer heute veröffentlichten Medienmitteilung zitieren. „Wir halten Google Scholar für ein grossartiges Produkt, das aber noch durch genuinen Input von Fachexperten verbessert werden kann. Die Erfahrungen der Schweizer Kollegen von hist.net sind dabei immens wertvoll.“ Man habe mit den Geschichtswissenschaften in einem überschaubaren Bereich erste Erfahrungen sammeln wollen, erklärte Schmidt den ungewöhnlichen Entscheid, in einem geisteswissenschaftlichen Fachbereich zu investieren. Über die genaue Art der Kooperation und über mögliche neue Dienste liessen weder Google noch hist.net etwas verlauten und stellten weitere Informationen in naher Zukunft in Aussicht. (mehr …)

Wikipedia: zitieren oder nicht zitieren?

wikipedia_zitieren

Klaus Graf hat heute auf Inetbib ein sehr gutes Argumentarium verschickt, das ich gerne hier aufnehmen möchte:

(i) Jede Quelle ist „zitierfaehig“. Wenn ich etwas als „Quelle“ heranziehe, muss ich sie nennen.

(ii) Alles kann als „Quelle“ dienen. In einem Referat „Die duemmsten Irrtuemer der Wikipedia“ zitiert man selbstverstaendlich die Wikipedia als Quelle.

(iii) Bietet ein allgemeines Nachschlagewerk eine besonders gelungene oder griffige Definition, so ist es Usus, diese als woertliches Zitat anzufuehren. Bei der Wikipedia hat es sich nicht anders zu verhalten.

(iv) Es gibt hunderte wissenschaftlich zitierfaehige Artikel, die auf dem Niveau eines spezialisierten Nachschlagewerks (nicht: Allgemeinenzyklopädie) sind, das selbstverstaendlich im wissenschaftlichen Diskurs zitiert wird (Lexikon des Mittelalters, Enzyklopädie der Neuzeit usw.).

(v) Vor jedem Zitat hat eine kritische Inhaltspruefung zu erfolgen. Die Wikipedia ist als Online-Quelle genauso zitierfaehig oder nicht zitierfaehig wie die gedruckte „Zwischen Amper und Würm: Heimatbeilage für den Landkreis Starnberg und das Würmtal“.

(vi) In verschiedenen Disziplinen und Kontexten gibt es schon hinsichtlich traditioneller Publikationen unterschiedliche Ansichten darueber, was „zitierfaehig“ist.

Unproblematisch scheinen mir die Punkte (i) und (ii) zu sein – zumindest in der neueren Geschichtswissenschaft ist die Fixierung auf bestimmte Quellengattungen aufgeweicht zu sein. Und dass man zitiert, worauf man sich stützt, ist selbstverständlich.

Interessant wird es meiner Meinung nach bei den Punkten (iii), (iv) und (v) . Hier schreibt Graf zu recht, dass es eine „eine besonders gelungene oder griffige Definition“ sein soll, wenn aus einem Nachschlagewerk zitiert werden soll. Grundsätzlich bin ich mit Graf in diesem Punkt vollkommen einverstanden. (mehr …)

Wikipedia: Computergestützte Berechnung der Vertrauenswürdigkeit

Die Idee von Luca de Alfaro (Professor für Informatik an der University of California, Santa Cruz) und B. Thomas Adler ist bestechend: Sie haben ein Programm entwickelt, mit dem sie die Glaubwürdigkeit von Wikipedia-Autor/innen und der von Ihnen verfassten Texte berechnen können – so behaupten sie jedenfalls. (mehr …)

Individuelle Qualitätssicherung in Wikipedia: Praxisbericht

Desanka Schwara stellte anlässlich ihres Kommentars zum Werkstatt-Gespräch zu Wikipedia in den Wissenschaften eine konkrete Frage zur Qualitätssicherung in Wikipedia:

Darf ich die „Probe aufs Exempel“ machen? Lieber Jan, kannst Du mir sagen, wer die „Nymphe Hybris“ ist? Sie soll laut Wikipedia die Mutter des Gottes Pan sein. Und die „Hybriden“? Die ganzen klugen Bücher (und Menschen), die sich auf diesem Gebiet auskennen, wissen nichts davon (der grosse, der kleine und der neue Pauly nicht, alle Oxford und Cambridge Nachschlagewerke zu alter Geschichte nicht, auch einschlägige Experten nicht). Wie kann ich herausfinden, woher diese Information in Wikipedia stammt, und wie kann ich sie überprüfen? Und evtl. noch mehr darüber lesen? Das wäre echt toll.

Gut, ich habe die Frage als Aufforderung genommen, Nachforschungen zum Sachverhalt anzustellen, obwohl ich kein Althistoriker bin (oder wie sagt man den Menschen, die alte Geschichte betreiben?). Anhand dieses Beitrags möchte ich zeigen: (mehr …)

Weblogs als «Frühwarnsystem» für wissenschaftliche Artikel

Mag die Frage, ob Weblogs selbst als wissenschaftlich Publikationen gelten können, noch offen sein, dass sie für das Auffinden von wissenschaftlichen Artikeln hilfreich sind, bekräftigt OpenAccess-Koryphäe Peter Suber in der jüngsten Ausgabe seines OpenAccess-Newsletters (gefunden dank einem Hinweis im Blog Archivalia…)

In 2006, for the first time, I discovered more useful new peer-reviewed literature by searching blogs than by searching journal tables of contents or general indices. Bloggers are very good at finding new articles, often because they are the authors or colleagues of the author. And unlike other discoverers of new articles, bloggers tend to share what they’ve found. There are more bloggers than ever before, including more academic bloggers than ever before. Bloggers are early birds because they’re willing to cover preprints and conference presentations. But they can even scoop journals in announcing published articles because so many journals take inexplicably long to publicize their own work. (Have you noticed that many journals publish a new issue on Day 0, update the online table of contents on Day 2, send out the email or RSS alert on Day 4?) Blogs are better connected to one another and to search engines than journals or even repositories. And for most people, running a couple of blog searches is much easier than running a dozen vertical searches at separate sites. For all these reasons blogs are becoming the Vehicle of First Exposure for a growing body of new research –if not the net’s very first notice of a new article, then its first widely noticed notice. (aus: Peter Suber, SPARC Open Access Newsletter, issue #105, Januar 2007)

Weblogs dienen nach Ansicht von Suber also gleichsam als Frühwarnsystem, das auf interessante Neuerscheinungen aufmerksam machen kann. Das erlebe ich auch so, und mittlerweile empfinde ich regelmässige Abklappern meiner „Stamm-Weblogs“ als ergiebiger als das Durchforsten von Newsletters und Neuerscheinungs-Listen.

Suber hält Weblogs darüber hinaus auch für eine valable Alternative bei gezielten Recherchen. Das müsste ich noch überprüfen, bislang gehört das Durchsuchen von Blog-Einträgen (bspw. bei technorati) nicht zu meinen Suchstrategien, wenn ich auf der Suche nach Publikationen bin.

Abgesehen davon, dass Artikel und andere Publikation hier schneller aufgenommen und einer breiten Öffentlichkeit zugänglich gemacht werden, sehe ich noch einen anderen Vorteil: In Blogeinträgen stehen die Literatur-Hinweise oft in einem Kontext, der erste Schlüsse darüber ermöglicht, ob der Inhalt für die eigene Arbeitssituation von Interesse ist.

Wichtige Bedingung für das Funktionieren dieser Vernetzungseffekte ist allerdings der Nachweis, wo man jeweils den Literaturhinweis gefunden hat. Das ermöglicht nicht nur die Rückverfolgung (Stichwort „Quellenkritik“), sondern ist auch eine Frage der Netiquette (Stichwort „wissenschaftliche Redlichkeit“).

HOK Lesen/Schreiben: Plagiate – oder: vom Abschreiben zum Fotokopieren zum Copy/Paste

Der bekannte Wikipedia-Kritiker Daniel Brandt (von wikipedia.watch) kommt in einer selbst durchgeführten Studie zum Schluss, dass mindestens 1% der Artikel in der englischen Wikipedia Plagiate enthalten (via Wikimetrics). Brandts Vorgehen klingt zwar plausibel, ist aber nur schwer nachzuvollziehen. Einerseits sind die Original-Daten (offenbar eine Liste von Biographien von Menschen, die vor 1890 lebten) nicht offengelegt. Auch die Ergebnisse seiner Auswertungen, die Sätze aus den Artikeln, mit welchen er ein Plagiat zu identifizieren sucht, ja noch nicht einmal die 142 Artikel, die aus seinem Sample von 16750 Artikeln als mit Plagiaten versehen identifizierte, sind zugänglich. So bleibt die Aussagekraft dieser Untersuchung unklar.

Schade, denn das Problem mit Plagiaten interessiert in der Bildungsszene (in Schulen und Universitäten) brennend, wenngleich auch eher umgekehrt – nämlich da, wo aus Wikipedia abgeschrieben wird. Die Lage ist gerade bei Wikipedia noch etwas komplizierter, weil dort das Kopieren von Inhalten explizit erlaubt ist – als Ausdruck eines „freien“, nicht durch Urheberrechte geknebelten Wissens (hier passt der Link zur OpenAccess-Debatte). Doch beim Problem des Plagiats geht es weniger um Urheberrechtsfragen als um das Konzept wissenschaftlicher Redlichkeit, wonach fremde Leistungen nicht als eigene ausgegeben werden dürfen.

Hier wird dann gerne von Seiten der Lehrenden das mangelnde Verständnis der Schüler, Schülerinnen und Studierenden (=Lernende) für dieses Prinzip angemahnt, bzw. ein fehlendes Unrechtsbewusstsein beklagt.

Aber vielleicht gibt es auch eine andere Sichtweise, die stärker von den Effizienz-Potentialen medialer Praktiken (bzw. dem Bequemlichkeitspotential der Lernenden) ausgeht. Hier meine These. Das Prinzip der wissenschaftlichen Lauterkeit wird von Lernenden nicht verstanden, weil sie die ihnen gestellten Aufgaben einfach nur sehen als „Zusammentragen und Reproduzieren von Informationen, die andere Personen geschrieben haben“. Ob man das in eigene Worte fasst oder nicht – es ist ohnehin eine Reproduktion von Gedanken eines Anderen, da ist „Copy/Paste“ viel effizienter. Die gesparte intellektuelle Energie wird dann in die Produktion eigener Outputs investiert. Im Idealfall in die zusammenfassende Auswertung, vielleicht aber auch in das nächste Level des neuen XBox-Games oder in eine Viertel-Stunde Online-Chat.

Man könnte die „Copy/Paste-Seuche“ auch als Fortsetzung der Verdrängung von Exzerpten durch Fotokopien sehen. Auch das wurde ja mal als Verlust intellektueller Betätigung beklagt, war auch von Effizienz-Überlegungen getrieben und war auch urheberrechtlich nicht unproblematisch (aber halt noch kein Plagiat). Die Überlegung lautete damals: „ich hab’s kopiert, also hab ich’s auch gelesen“, nun heisst es: „ich hab’s kopiert, also hab ich’s auch geschrieben“. Ich warte noch auf Berichte, dass Schüler mit Foto-Handy die Wandtafel-Anschrifen abfotografieren und der Lehrperson mitteilen, dass sie Foto dann ausdrucken und ins Heft kleben.

Vielleicht bedeutet das Plagiats-Problem für die Lehrenden nicht nur, dass sie „besser“ kontrollieren und über die Wichtigkeit des Redlichkeitsprinzips „aufklären“ müssen. Wäre ja eine Überlegung wert, welche Bedeutung dem „Zusammentragen und Wiedergeben“ von Informationen gegeben wird, bzw. wie diese begründet („Verstehen durch Erklären in eigenen Worten“) und eingebettet werden („Ausgangslage für Entwicklung eigener Argumentation“). Das bedeutet nicht, dass die Lernenden auf Anhieb verstehen, warum das „Copy/Paste“-Verhalten nicht nur von den Lehrenden verpönt, sondern am Ende auch für sie selber (bzw. ihr Sachverständnis) wenig gewinnbringend ist.

Bestätigt fühle ich mich durch die Analyse des Medienwissenschaftlers Stefan Weber, der das Problem der seiner Ansicht nach grassierenden Plagiate folgendermassen auf den Punkt bringt:

Die Universitäten fördern in ihrer Unbeholfenheit den Trend zur Umschreib-Mentalität, zur Textkultur ohne Hirn. (aus „Textueller Missbrauch„)

Bei der Beurteilung des Verhaltens der Lernenden ist auch zu berücksichtigen, inwiefern die Lehrenden selber hier mit gutem Beispiel vorangehen (oder eben nicht). Bedenke: auch die Lernenden können mit einer Google-Recherche ausfindig machen, ob das Arbeitsblatt, die Aufgabenstellung oder die Zusammenfassung von wo anders stammt.

Zum Wandel des Schreibprozesses im digitalen Zeitalter im Zusammenahng mit der Frage von Plagiaten lohnt, nebst der pessimistischen Analyse von Stefan Weber zum Google-Copy-Paste-Syndrom, die Lektüre des Artikels Pimp My Text von Frank Hartmann.

Literatur:

Übersicht HOK: Lesen/Schreiben, HOK Lesen: Quellen