weblog.hist.net

Flickr Commons Expands

The photosharing website Flickr has expanded its „Commons“ project. I wrote about the first iteration several months ago describing the decision by the American Library of Congress to allow the public to start marking up images from their collection. Since that time, Flickr (owned by Yahoo!) has expanded the number of its partners to include the Smithsonian Institution, the Brooklyn Museum, the George Eastman House, the Biblioteca de Arte-Fundação Calouste Gulbenkian, the Bibliothèque de Toulouse, the National Media Museum, and the Powerhouse Museum. These additions to the project have increased the number of images available through the commons exponentially and, because the images being deposited in the Commons are being chosen with some care, this collection is rapidly becoming one of the most interesting, if idiosyncratic collections of photographs available to the general public.
(mehr …)

Babelblog: ein erster Rückblick / a first review

babelblog

Vor zwei Monaten starteten wir den Versuch „babelblog“: Wir öffneten unseren Weblog einer international zusammengestellten Gruppe von Historiker/innen, die aus ihrer Perspektive über die Geschichtswissenschaften im digitalen Zeitalter berichten sollten. Nach zwei Monaten und acht Einträgen von drei Autoren wollen wir einen ersten Rückblick halten.

Mills Kelly berichtete von einem Projekt, das die Entwicklung von Hilfsmitteln zur Erschliessung grosser Textmengen von historischem Interesse zum Ziel hat, vom Versuch der Library of Congress, ihr Bildarchiv auf Flickr bereit zu stellen und mit kollaborativem Tagging erschliessen zu lassen, einem Wiki, das dem (vor allem US-amerikanischen) Archiv-Wesen gewidmet ist, und von einem OpenSource Software-Paket, das mit Web-2.0-Technologien das Erstellen von Ausstellungs-Websites ermöglicht, bzw. vereinfacht.

Marcin Wilkowski berichtete von zwei Projekten in Polen, die historische Sachverhalten mit Web-2.0-Technologien darstellen und stellte die Frage, inwiefern die Erinnerung public domain ist, bzw. ob ein Privatunternehmen Bildmaterial von historischen Ereignissen, die eine ganze Gesellschaft betreffen, zu Werbezwecken einsetzen darf.

Loudovic Tournes schliesslich stellt die provozierende Frage, ob im digitalen Zeitalter die althergebrachten Bibliographien überhaupt noch einen Zweck erfüllen.

Wir warten gespannt auf die nächsten Einträge und sind zuversichtlich, dass bald weitere Autor/innen mit eigenen Beiträgen auf sich aufmerksam machen werden.

In January we started our project „Babelblog“: we invited some historians from different parts of the world to join our blog and post about the historical sciences in the digital age from their point of view. After two months and eight posts from three contributors, we think it’s time for a first look back.

Since most of the posts are in english, we do without replicating them one by one. We would like to point out the post of Loudovic Tournes though, not because it’s the only one in french so far, but rather because he asks boldly, whether in the digital age compiling and maintaining bibliographies is still making sense, or whether new technologies make those pre digital techniques needless.

In any case we are looking forward to a lot more interesting posts, that will come up during the next months – not only from the contributors we already have read, but also from new ones.

Die BBC baut England nach – und wer baut Helvetien neu?

photosynth400.jpg

Als ich vor einigen Tagen in meinem Leibblatt das Dossier mit dem Titel «Expedition in 3D. Globetrotting am PC mit Google Earth, Microsoft Virtual Earth und Co.» las, fragte ich mich, wie lange es noch dauern wird, bis wir in diesen virtuellen Landschaften auch eine Zeitachse präsentiert kriegen und damit so etwas wie eine vierte Dimension in diesen Systemen haben werden.

Der Spiegel berichtete heute, dass die BBC mit Hilfe der Software Photosynth aus dem Hause Microsoft und mit Tausenden von Photos eine hochauflösende Grosscollage nachbaut: «Das Programm, das Microsoft zusammen mit der Universität Washington entwickelte, gilt als die erste Software, die Bilder anhand von Perspektive und Lichteinfall semantisch miteinander verknüpfen kann.» Dass man Bilder «semantisch verknüpfen» kann, habe ich noch nie gehört und auf den ersten Blick kann ich mir auch nicht wirklich vorstellen, wie das funktioniert. Dass es aber funktioniert, war offenbar bereits an einer Konferenz zu bewundern, wie der Spiegel weiter berichtet: «Erstmals sorgte Photosynth auf der ‚Technology, Entertainment, Design‘-Konferenz (TED) für Furore. Microsoft-Forscher Blaise Aguera y Arcas demonstrierte damals einem staunenden Publikum, wie das Programm auf der Grundlage tausender Flickr-Fotos ein dreidimensionales virtuelles Abbild der Notre Dame de Paris errechnet.» Nun haben wir leider nicht Tausende von historischen Aufnahmen zu bestimmten historischen Orten und Gebäuden zur Verfügung und schon gar nicht auf flickr.com, aber die Idee ist wohl trotzdem nicht schlecht: Web-Dienste der Generation 4.0 ff. könnten dann zum Beispiel aus Textinformationen, Bildern und sonstigen Informationen historische Landschaften errechnen und dreidimensional darstellen. Die ersten Bilder aus dem BBC-Microsoft-Grossversuch lassen sich hier betrachten!

HOK Lesen/Schreiben: Von Aggressionen und Aggregatoren

Der Fall einer belgischen Zeitung, die sich gegen die ungefragte Verwertung durch GoogleNews wehrt, weist auf eine bemerkenswerte Eigenschaft der Internet-Gesellschaft. Die Aggregation von Daten, die von anderen erstellt worden sind, wird zu einem Mehrwert generierenden (und damit Profit abwerfenden) Service. Google programmiert die Suchmaschinen, welche die Websites der bekannten Zeitungen abgrasen, lässt die Inhalte gescheit darstellen und kassiert für diese Aggregation eine Menge Werbegeld, dass den Produzenten der Informationen fehlt.

Auf dieses Ungleichgewicht der web 2.0-Ökonomie weist auch Geert Lovink in seiner kritischen Würdigung „Kein Zugriff“ hin (Zusammenfassung seiner kommenden Publikation bei „Jungleworld„). Er zeigt das Prinzip auch anhand community-basierter Aggregations-Leistungen auf. Die Tagging-Funktionen habe nicht nur strukturierenden Nutzen für die angemeldeten User einer Community. Sie lassen auch Profilierungen und Marktstudien zu. Wikipedia (um noch einen Schritt weiter weg von den technischen Aggregations-Definitionen zu gehen) ist nicht nur eine Gratis-Dienstleistung, die locker alle bezahlten Modelle der Wissensaggregation (Lexika) punkto Popularität aussticht – es ist auch ein Rekrutierungsfeld für Autor/innen, die sich bereits profiliert haben und nun in anderen Projekten genutzt werden können. Wikipedia ist auch eine beliebte Quelle für so genanntes DataMining: das Auswerten der Datenbestände mit verschiedensten Fragestellungen.

Bei Google kann man noch der Meinung sein, es handle sich um eine Produktivitätssteigerung bei der Datenverwertung, wie dies die Mechanisierung und Informatisierung bei der Produktfertigung im 19. und 20. Jahrhundert war. Doch bei den Geschäftsideen im web 2.0 wird mit dem Community-Effekt günstig produziert, dank Idealismus, Altruismus, Spieltrieb, Exhibitionismus. Jüngstes Beispiel ist der Versuch von Google, mit einem Online-Game durch die Community seine Bilddatenbank beschlagworten zu lassen. Wikipedia ist zwar im Gegensatz zu Google (und anderen web 2.0-Firmen) ein Non-Profit-Unternehmen. Doch es generiert auch ziemlich viel Geld – durch Spenden. Davon können einige Leute leben, nicht zuletzt Gründer Jimmy Wales. Doch weitaus wichtiger: die Wikipedia-Community beschert dem Wikipedia-Gründer wertvolle Aufmerksamkeit, die er auch für kommerzielle Projekte (wie Wikia) nutzen kann. Letztlich geht es bei Projekten wie bei Wikipedia nicht nur um die Frage der wissenschaftlichen Güte der gemeinschaftlich-ehrenamtlich erstellten Inhalte. Es ist auch eine Verdrängung bezahlter Professionals durch idealistische Freiwillige.

Zuletzt noch ein gewagter Schlenker in die akademische Welt. Wer die Bedeutung des Aggregations-Prinzips für das web 2.0 verstanden hat, und sieht, wie dieses Prinzip bei Google, Flickr, Wikipedia und in privaten Blogs zur Anwendung kommt, staunt nicht mehr darüber, dass mit den Nutzer/innen des web 2.0 auch Copy/Paste-Verhalten und Plagiats-Vergehen in den Universitäten Einzug halten. Doch einfach nur ein sorgloses Umgehen mit fremdem geistigen Eigentum bei den jungen Studienanfängern zu beklagen, greift zu kurz. Was wird denn von Ihnen verlangt – und was haben Sie für Vorbilder?

In einem zunehmend verplanten und modularisierten, auf Leistung (= in Credits messbaren Output) getrimmten Bologna-Hochschul-System kann es nicht überraschen, dass die Aufgaben im Grundstudium oft einfachen Aggregationen gleichen. „Fassen Sie zusammen!“ ist als wissenschaftliche Herausforderung so dürr, dass es zum Copy/Paste einlädt. Stattdessen wären klare Fragestellungen zu verlangen, bzw. auch zu vermitteln, was eine klare Fragestellung ausmacht und wie diese eine wissenschaftliche Arbeit schon grundlegend strukturieren kann. Denn: auch wer sauber ein Zitat nachweist, muss es noch lange nicht gelesen oder gar verstanden haben.

Generell sollte nicht nur mit dem Argument der wissenschaftlichen Redlichkeit (keine fremden Erkenntnisse als eigene ausgeben) gearbeitet werden. Denn oft sind die Vorbilder nicht so vorbildlich, wie sie sein sollten: Auch bestandene Akademiker werden immer öfter beim Tricksen und Klauen entlarvt – nicht immer mit Konsequenzen. Und ist eine Paraphrase nicht oft einfach eine elegante Vermeidung des offensichtlichen Bekenntnisses, dass einem selber nichts Besseres eingefallen ist, man dies aber elegant in eigene Worte fassen kann?

Immerhin, und dies sei hier auch erwähnt, kann nicht genug auf die lernpsychologische Wirkung des epistemischen Schreibens hingewiesen werden: Sachverhalte besser verstehen, indem man sie verständlich niederzuchreiben versucht.

Zu den Argumenten der Redlichkeit und der Lernpsychologie kommt auch noch jenes der Urheberrechte: man ist in der Regel nicht befugt, ohne Nachweis längere Passagen aus Werken anderer abzuschreiben/ zu kopieren. Hier gilt jedoch zu beachten, dass die GNU Public License die bestehenden Regeln verändert. Aus Wikipedia darf ohne Zitatnachweis wörtlich zitiert (auch in beliebig abgeänderter Form) werden – solange das Ergebnis auch der GNU Public License untersteht und frei weitergegeben und weiter bearbeitet werden kann.

Noch zum Titel: Angesichts der starken Überzeugungen, die zur Disposition stehen (Konzepte der Wissenschaftlichkeit), und der ökonomischen Realitäten (Wer bezahlt und wer kassiert?) wundert mich der zuweilen scharfe Ton nicht, mit dem über die „schlimmen Entwicklungen“ des Internets – und des web 2.0 als Untermenge davon – hergezogen wird. Aber bleibt nur Euphorie, Fatalismus oder Beklagen?

Literatur:

Übersicht HOK Lesen/Schreiben