weblog.hist.net

HOK Reden: Internet Governance

Wer regiert das Internet? Die Frage ist in einem Blog-Eintrag nicht zu beantworten – wenn sie überhaupt zu beantworten ist. Ein guter Ausgangspunkt ist die Artikel-Sammlung von Telepolis, die sich unter dem Titel „Cyber-Weltgipfel“ seit der WSIS in Genf Ende 2003 mit Fragen der Internet-Regulierung befasst. Im Wesentlichen dreht sich die Auseinandersetzung darum, wer die Informationen verwalten darf, die das Internet überhaupt am Laufen halten: die Domain-Informationen, bzw. die Informationen darüber, wer welche Domains verwaltet. Das war jahrelang eine informelle Sache von US-amerikanischen Hochschul-Angestellten und Verwaltungsinstanzen der US-Regierung, welche die Entwicklung des Internets (zumindest seiner Ursprünge) finanzierte. Neuerdings wacht die ICANN, eine Stiftung nach amerikanischem Recht, über die Namensgebung im Internet.

Der jüngste Artikel „Weiter Uneinigkeit über Kontrolle des Internet“ behandelt die momentan unklare Interessenlage. Neben der US-Regierung, die noch immer massgeblich Einfluss nehmen will, ist auch die UNO-Tochterorganisation ITU (Internationale Telecommunication Union) daran interessiert, hier ihren Einflussbereich zu definieren. Dies steht im Widerspruch zum Internet Governance Forum (IGF), das im Oktober unter der Leitung der UN erstmals zusammentraf. Im IGF arbeiten im Gegensatz zur ITU nicht nur Regierungsdelegationen, sondern auch Vertreter der Wirtschaft und der Zivilgesellschaft zusammen. Dies soll einen Ausgleich der verschiedenen Interessen an der Regulierung des Internets gewährleisten, bedeutet aber eine Einschränkung des staatlichen Vorrechts auf Regelsetzung.

Dabei geht es noch gar nicht um technische Spezifikationen, welche das W3C durchzusetzen versucht (mit mässigem Erfolg, weil fast alle grossen Web-Unternehmen oder auch Microsoft die Standards ignorieren und lieber selber welche etablieren), und auch nicht um die Bereitstellung der technischen Infrastruktur, also der physikalischen Netze (die etwa beim Streit um die (hier bereits besprochene) Net Neutrality im Mittelpunkt stehen).

Sollen Aber sie wirft eine weitere Frage auf: inwiefern sind die Machtverhältnisse im Internet für die Historische Online-Kompetenz von Relevanz? Und in welchen Kompetenz-Bereich sind diese Fragen anzusiedeln? Hier ist zugleich anzufügen, dass Kompetenzen nicht mit Wissen gleichzusetzen ist. Dennoch bleiben viele Kompetenzmodelle unklar in der Frage, inwiefern Wissen Bestandteil, Gegenstand oder Voraussetzung von Kompetenzen ist.

Das Wissen über die Funktionsweise von ICT (Neuen Medien) und den Interessengruppen, welche die Entwicklung von Anwendungen vorantreiben und die Nutzungsmöglichkeiten regeln, ist für alle Kompetenzbereiche von Bedeutung. Ich weise es in erster Linie dem Bereich „Lesen“ zu, da die Kompetenz, sich über die Interessen und Machtverhältnisse zu informieren, Grundlage dafür ist, ihre Auswirkungen für „Lesen“, „Schreiben“ und „Reden“ einzuschätzen. Die Fähigkeit zur Einschätzung ist wiederum mit der Kompetenz der Reflexion und der Erörterung („Reden“) verbunden.

Übersicht: HOK Reden

HOK Reden: Über die Zeit

Als Historiker setzen sich von Berufs wegen mit zeitlichen Phänomen auseinander. Gehört da auch das Sinnieren über die Zeit dazu? Mir sind in letzter Zeit einige Gedanken zur Zeit durch den Kopf gegangen, als ich mich mit Fragen der Historischen Online-Kompetenz beschäftigt habe.

Zeit ist eine knappe Ressource. Deshalb erscheint ja, grob vereinfacht, die Informationsflut so bedrohlich. Denn die Zahl von Websites hat sich in den letzten zweieinhalb Jahren verdoppelt, denn Informationen lassen sich fast unbegrenzt vermehren. Die Zeit hingegen, die für Auffinden, Aufnehmen und Auswerten der Informationen benötigt wird, lässt sich nicht vermehren. Zeit kann allenfalls „effizienter genutzt“ werden. Dieser Widerspruch ist die Grundlage der Aufmerksamkeits-Ökonomie, denn was ist Aufmerksamkeit anderes als die zeitliche Beschränkung der Verarbeitungskapazität des Gehirns?

Zeit und Kompetenz
Das ist jetzt nur ein oberflächliches Zusammenfassen von Debatten, die seit langem geführt werden. Doch für mich stellt sich das Problem (nicht nur im Zusammenhang mit der Historischen Online-Kompetenz) ziemlich konkret: wann nehme ich mir die Zeit, die verschiedenen Blogs und Website zu lesen, und diese Informationen noch für meinen Weblog zu verarbeiten?

Da wirkt es paradox, von den Nutzer/innen zu verlangen, dass sie sich selbst kompetent machen sollen für den fachgerechten Umgang mit den Informationen aus dem Internet – aber genau darauf laufen alle Empfehlungen für die Internet-Nutzung hinaus. Die fachliche Überprüfung der Informationen erfolgt durch die Nutzer/innen selbst. Das entspricht der Erfassung von Zahlungsaufträgen durch die Kunden beim Online-Banking. Dafür braucht es aber Zeit: Einerseits, um die notwendigen Kompetenzen zu erwerben, zu schulen und a jour zu halten, und andererseits, um die Überprüfung vorzunehmen.

Schön, den Nutzer/innen zu erklären, wie sie die Qualität einer Internet-Information überprüfen können – in der Alltagswirklichkeit muss es schnell gehen, und da wird das erstbeste, einigermassen plausible Ergebnis verwendet, zum Teil wider besseres Wissen.

Zeit und Projekt
Wieviele Websites kann denn ein Mensch auf Dauer inhaltlich vernünftig betreuen? Und damit meine ich nicht das Handhabung eines Workflows, wenn in Daten in einem Content-Management-System organisiert werden müssen. Nein, ich meine inhaltliche Aufbereitung von Inhalten, das Verfassen von Texten, das Setzen von Links wie hier in diesem Blog. Wieviele? Eine, zwei, vielleicht drei? Und wieviele Websites kann eine Institution betreiben? Eine pro Mitarbeiter, oder weniger?

Ich frage mich, wer denn die hundert Millionen Websites betreut, Tag für Tag. Oder werden die gar nicht alle betreut? Sind da vielleicht viele Datenfriedhöfe oder Web-Bücher dabei?

Mit Web-Büchern meine ich solche Websites, die wie Bücher geplant und produziert wurden. Zwei Jahre lang werden Inhalte zusammengetragen und aufbereitet. Dann gehen die Projektgelder zu Ende, die Website wird nicht mehr betreut, die Inhalte jedoch bleiben weiterhin zugänglich. Denn gerade in den Wissenschaften ist die Generierung von Inhalten noch immer projektartig angelegt, in einer Art, die für die Herstellung des Informationsträgers Buch geeignet ist – aber nicht unbedingt für Websites.

Zeit und Community
Nun werden in letzter Zeit viele Hoffnungen in die Social Software, in die Community gesetzt. Die „Wikipedia-Formel“ sozusagen: man öffnet ein Wiki, und die Inhalte generieren sich gleichsam von selbst, da die „Community“ sich rund um die Uhr für deren Erstellung und Erweiterung zuständig hält.

Aber auch hier ist die Frage zu stellen: an wie vielen Wikis kann ein Mensch sich inhaltlich vertieft beteiligen? An einem, zwei, drei? Vielleicht ist ja Wikipedia überhaupt ein Einzelfall, bzw. ein Ausnahmefall einer dauerhaften Beteiligung einer genügend grossen Menge von Menschen an einem gemeinsamen Projekt? Vielleicht kann es nur ein Wikipedia geben?

Oder ist es nur eine Frage der Übung? Brauchen wir noch ein entsprechendes jahrelanges Training, bis wir in mehreren Foren, Wikis und Blogs pointiert unsere Stellungnahmen plazieren können, ohne die eigene Tätigkeit total zu vernachlässigen?

Übersicht HOK Reden