weblog.hist.net

Europe Body Count

Editorial notice: The following text is written by Nicolas Kayser-Bril, a french journalist and a pioneer in advanced data journalism. Some of his projects are highly relevant for the digital history community and we are very glad to have Nicolas presenting his new project here at hist.net! You can contact Nicolas at nkb@jplusplus.org. (ph)

A few weeks back, I read that the number of people killed by Nazi Germany before 1939 was, at most, in the low 5 figures. I was struck by the number, as I thought that the intensity of horror of the Nazi regime increased more regularly between 1933 and 1942, when it reach its apex. As a journalist, I wanted to tell this story in a powerful way and decided to visualize the number of victims of Nazi Germany month by month on a line chart.

After Google failed to give me a lead, I asked Peter Haber for advice, who referred me to his colleagues. It turned out that there is no month by month data of victims of Nazi Germany available. Simon Erlanger even pointed out that not all victims are known. New details just emerged about 1,100 Jewish ghettos.

With that in mind, I set out to design a prototype for a data store that could handle data on a variety of scales, from macro to individual data, allowing for the concurrent use of data of different precision and reliability. To give an example, we know that about 1,1 million people were murdered at Auschwitz over the course of 55 months between 1940 and 1945: 20,000 monthly deaths. The accuracy of this figure is obviously low. If one were to add a sub-event to it, such as the 8,000 French Jews deported there in July 1942, the monthly number of victims would be 27,800 for July 1942 and 19,800 for all other months. This iterative process can be repeated until sub-events reach the scale of individual victims.

Working on different scales at the same time, we can store data about individuals as well as rough estimates for larger events. Using a graph database, we can describe victims on an ad hoc basis (e.g. we might have the age of some victims, but not all), using what is available. The very early prototype is called Europe Body Count (inspired by the Iraq Body Count project, considered to be the most reliable source of information about civilian deaths in Iraq). It is highly unstable and incomplete, but it makes the concept clear.

It is important to tell non-historians that Nazi Germany did not become gradually murderous but that massacres changed in magnitude in mid-1941. It is important because it explains why democracies did not get tougher on Hitler earlier on. It is important because, as survivors die (1942’s 20-year-olds just turned 90), we need facts more than ever.

National and ethnic narratives have failed at explaining what happened. If you only know that 6 million Jews were slaughtered in camps, you probably think (as a solid share of the European population does) that they were quite naive and afraid to fight back. Add the context of a more widespread bloodbath in the region and it becomes more understandable. If you only take the 500,000 Germans who died between 1944 and 1946 as they were expelled from eastern regions of Germany, it looks outrageous. Add the context of years of massacres and slave labor and the German plight appears as within the bounds of normality in those years in the region.

A comprehensive database, an excellent API and good-looking visualizations won’t transform Europeans in critical historians. But it will give tools to those journalists and story tellers who want to fight back revisionist narratives. As survivors die, we’ll need that more than ever.

Google Wages War on Spam

Das ist nur der oberste Teil einer wunderbaren Illustration zum Thema Spam. Das ganze Bild gibt es drüben bei seo.com!

Die Geschichte der Welt in 100 Sekunden

A History of the World in 100 Seconds from Gareth Lloyd on Vimeo.

Wikipedia eignet sich aufgrund seiner Datenstruktur hervorragend für allerlei Experimente im Sinne der hier bereits mehrfach thematisierten Data Driven History. Eine beinahe maximal mögliche Datenaggregation haben die beiden BBC-Mitarbeiter Gareth Lloyd und Tom Martin im Rahmen des History Hack Day anfangs Jahr in London programmiert.
(mehr …)

Plagiate visuell darstellen

Vor kurzem schrieben wir an dieser Stelle respektive in der Neuen Zürcher Zeitung einige Male über die wachsende Bedeutung von Daten für die historische Forschung und insbesondere über die noch weitgehend unerschlossenen Möglichkeiten der Visualisierung grosser Datenmengen – Stichwort «Data Driven History».
(mehr …)

Data Driven History

«Digital» bedeutet zunächst einmal, «auf Ziffern beruhend», «durch Ziffern ausgedrückt». Hauptmerkmal einer digitale Geschichtsschreibung wäre demnach ihre Zahlenbasiertheit. Tatsächlich deutet vieles daraufhin, dass mit dem «digital turn» der letzten Jahre Zahlen und Daten eine neue Bedeutung in der Geschichtswissenschaft erhalten könnten.

Anders aber als bei der quantitiv orientierten Geschichtswissenschaft, die sich seit den sechziger Jahren des letzten Jahrhunderts als eine «Historische Sozialwissenschaft» zu formieren begann, orientiert sich eine neue, eben erst entstehende «data driven history» an kulturwissenschaftlichen Methoden und Fragestellungen.

Anthony Grafton hat es so formuliert: «The digital humanities do fantastic things. I’m a believer in quantification. But I don’t believe quantification can do everything. So much of humanistic scholarship is about interpretation.»
(mehr …)

Eine Lokalposse als Timeline

In Basel, wo sich bekanntlich der Konzernsitz von hist.net befindet, spielen sich zur Zeit hochdramatische lokalpolitische Medienereignisse ab. Die einzige (und ziemich marode) Lokalzeitung der Stadt wurde vor einigen Monaten von rechtsbürgerlichen Investoren übernommen, eine von links nach rechts konvertierte Edelfeder als Chefredaktor installiert und der abgewählte Bundesrat Christoph Blocher als Berater verpflichtet. Nun aber regte sich Widerstand in der Stadt, die Investoren stiessen daraufhin das verschuldete Lokalblatt an einen gut vernetzten Selfmade-Manager ab und die Restbestände einer kritischen Öffentlichkeit rätseln seither darüber, woher dieser das nötige Kleingeld für diesen Deal hergehabt haben könnte.
(mehr …)

Wikipedia visuell: eyePlorer.com

eyeplorer

Unser geschätzter Wikipedia-Experte Nando Stöcklin twitterte kürzlich über eyePlorer.com, eine Plattform, die interaktiv Datenbestände der Wikipedia visualisiert. Das lädt zwar zu lustigen Spielereien ein, ein tiefer Sinn oder gar die Möglichkeit, dies auch für historische Forschungsprojekte nutzen zu können, fiel uns noch nicht ein. Aber die Kollegen von der Diadaktik-Front, die ja zur Zeit allemsamt sich in Berlin versammeln, werden uns sicherlich schon bald Ideen und entsprechende didaktische Umsetzungsschemata präsentieren.

Forschen mit und über Wikipedia. Eine Skizze

wp-georef

Das Thema Wikipedia und die Wissenschaften hat, wie in den letzten Tagen sich auch in diesen Spalten beobachten liess, immer noch Hochkunjunktur. Wir haben uns deshalb entschlossen, eine Auslegeordnung möglicher Forschungsfragen zu machen, ein Framework zu dem, was noch auf unserer Agenda steht.

Dieses Framework ist das Destillat unserer eigenen bisherigen Arbeiten, aber natürlich auch sehr stark geprägt von den Ideen und Impulsen, die hier immer wieder geäussert wurden. Ein grosses Dankeschön deshalb nach Aachen, Wien, Bern und überall dorthin, von wo die Diskussionen ebenfalls bereichert wurden.

Die Skizze wird in den nächsten Wochen in den Spalten der Schweizerischen Zeitung für Geschichte im Druck erscheinen, als Preprint ist er natürlich bereits hier verfügbar.
(mehr …)

Vom Versprechen von Lernmaschinen zur Zeitlast von Bologna (I)

Abschlussveranstaltung zu Geschichte Online

Heute, am 5. Dezember 2008, findet die Abschlussveranstaltung zum Projekt Geschichte Online statt, worauf Kollega Haber bereits hingewiesen hat.

(mehr …)

Historische Bilder und Töne im Geschichtsunterricht

Der Verein Memoriav organisiert jedes Jahr ein Kolloquium zur Weiterbildung interessierter Kreise. In diesem Jahr lautet der Titel «Bilder und Töne entziffern» und befasst sich mit der Interpretation von audiovisuellen Quellen vornehmlich im Unterricht.
(mehr …)