Schlagwort-Archive: Social Software

Auch das noch (II): Der zweite Weltkrieg auf Facebook

Passend zum Start der ersten Facebook-Präsenz eines historischen Instituts im deutschsprachigen Raum hier der Hinweis auf einen (selbstverständlich anonymen) Versuch, die komplexe Handlung des Zweiten Weltkrieges in der Newsfeed-Darstellung von Facebook abzuhandeln. Und auch hier sei die Frage an die geschätzte Leserschaft gestellt: Geht das? Darf man das? Bringt das was (medienhistorisch, geschichtsdidaktisch, kulturwissenschaftlich)?
Nebst den parodistisch anmutenden Versuchen, mit facebook-typischen Ausdrücke die Ereignisse wiederzugeben, fällt vor allem auf, dass die Darstellung (wenn man das so bezeichnen will) sich ausschliesslich auf das Kriegsgeschehen beschränkt und beispielsweise den Holocaust komplett ausblendet. Soweit geht die Lust an der Parodie dann doch nicht.

via Kliosurft

Nie mehr Nerds im Netz, nur noch Normalos?


Die Zeit der Nerds im Netz sei vorbei, meint Florian Knoke in Spiegel Online, denn: „Das Internet gehört den Normalos„. Ja, mehr noch: Die Nerds hätten das Netz zwar gern zu ihrem Erfolgsprojekt gemacht, aber sowohl die Cordhosen-Träger-Lötkolben-Zeilenkommando-Tipper der 80er- und 90er-, wie auch die Neue-Welt-Ordnung-Idealisten der 00er-Jahre hätten den angestrebten Einfluss auf die Entwicklung des Netzes gar nie ausüben können. Der Erfolg des Internets sei allein den Normalos zu verdanken, die das Netz ganz unspektakulär udn langweilig in ihren Alltag integriert haben, der da heisst: Selbstoptimierung. Die Nerds von heute seien eher jene, die sich von Computern und Internet fernhalten. Weiterlesen

Zotero 2.0 now available

zotero

Zotero 2.0 became available for public download on May 14. This new version of Zotero provides many exciting features that unlock the research archives of individual scholars making those research archives (or portions of those archives) available for a wider audience. Think about it this way. In what my students like to call the „olden times“ (anything before 2000), scholars collected materials into their personal research archives then sat down and wrote a book, an article, or a conference paper. That publication provided the scholar’s audience with a glimpse into the source materials he or she had collected from various archives, libraries, etc. But only a glimpse, and mostly in the footnotes. If you wanted access to those same sources, you had to replicate the research already completed by the author of what you were reading.

Zotero 2.0 potentially puts an end to this re-research process. Now, a scholar can make any portion of that personal research archive available online via Zotero’s collaborative capabilities. So, for instance, as I collect materials for an article I am perparing for a volume of essays on „getaways“ in communist Eastern Europe, I can make my Zotero folders available to anyone or just my collaborators in the volume. Once the book is published, I can choose whether or not to make my sources available to those readers who want to work with the sources I collected. In this way, the „hidden archive“ of scholarship will begin to migrate to the surface. The potential for transformation of scholarly work is, I think, quite significant.

Zotero 2.0 also taps into the potentialities of social networking for scholars. Once logged in to the Zotero server, one can create a personal profile page, create or join affinity groups, and track („follow“) the work of others who are part of the Zotero community. For a brief summary of the features of Zotero 2.0, read what Dan Cohen, Director of the Center for History and New Media, has written (and will continue to write) in his blog.

Kompetenzen, Theorien, Medien (?) der Geschichte

Wenn Kollega Haber schon darauf hinweist, sollen hier auch ein paar Worte darüber verloren werden, über meine Reise nach Eichstätt im malerischen Altmühltal (die schöne landschaftliche Lage muss man sich mit schlechten Bahnverbindungen erkaufen), wo an der katholischen Universität ziemlich intensiv Geschichtsdidaktik betrieben wird, was dank eines umfassenden mehrjährigen Forschungsprojektes auch in Zukunft so sein wird.

Die Tagung konzentrierte sich primär auf die Frage, über welche Kompetenzen Lehrpersonen verfügen müssen, um bei Ihren Schüler/innen Kompetenz fördern und diagnostizieren zu können; also um „Kompetenzen zweiter Ordnung“. Und da die Geschichtsdidaktiker/innen diese Lehrpersonen ausbilden, müssen die ja auch Kompetenzen-kompetent sein. Bin ich in der Lage, bei meinen Lehramts-Studierenden festzustellen, ob sie ihre Schüler/innen in der Entwicklung ihrer Kompetenzen fördern können, muss ich folgerichtig kompetenzförderkompetenzdiagnosekompetent sein.
Weiterlesen

OpenSocial: wie offen ist SocialSoftware?

Das Google seit neustem im Bereich der Mobiltelefonie mitmischt (bzw. nach Meinung verschiedener Medien das Mobiltelefon neu erfindet), sei hier nur der Anlass, auf eine andere interessante Neuerung im Google-Universum hinzuweisen. Seit letzter Woche bietet Google mit OpenSocial eine Möglichkeit für Betreiber von Social Software-Anwendungen, die Daten Ihrer Nutzer/innen einfach von einem Dienst zu anderen zu transferieren. ((Konkurrent Facebook bietet eine ähnliche Programmierschnittstelle allerdings schon seit geraumer Zeit an. Dort gibt es einige tausend (!) Anwendungen, die sich an die offene Schnittstelle von Facebook anklinken. Dies war vermutlich auch ein Grund für Google, sich hier zu engagieren. Dafür hat sich mit Myspace ein weiterer grosser Anbieter einer Community-Plattform)) Dies kommt einem Paradigmenwechsel im Social-Software-Universum gleich, waren bzw. sind doch Dienste wie Flickr, YouTube, MySpace und dergleichen eher darauf ausgelegt, dass die Nutzer/innen auf immer und ewig an den eigenen Dienst gebunden werden – auch wenn die Nutzungsbedingungen sich verschlechtern oder verteuern (oder beides). Weiterlesen

GMW 07: Lernszenarien in Web 2.0

Nun, da habe ich mich mit dem letzten Eintrag etwas weit aus dem Fenster gelehnt, was die Einschätzung der Pre-Conference-Angebote angeht. So muss ich eingestehen, dass das Zeitaufwand/Lern-Verhältnis im Workshop „Lernszenarien im Web 2.0„, nicht optimal war. Thema war vor allem die Abgrenzung eines ambitiösen Lern-Software-Projektes („Medi@rena„) von der Uni Paderborn gegenüber den Angeboten des web 2.0. Weiterlesen

Second Hype

Was ist nur los mit Second Life? Alle laufen davon! Laut einer Umfrage des Meinungsforschungs-Unternehmens Fittkau und Maass bei über 100 000 deutschsprachigen Internet-Nutzer/innen kennen zwar 69 Prozent Second Life. Aber nur 7 Prozent geben an, Second Life gelegentlich zu nutzen und gar nur 0.8 Prozent tummeln sich regelmässig in der künstlichen Parallel-Welt. Von diesen 7.8 Prozent kreuzten 64.9 Prozent an: „Nachdem ich Second Life einmal ausprobiert habe, habe ich es nicht wieder aktiv genutzt“. Vernichtend. Weiterlesen

Web 2.0: Kontakte – nicht Information; Ort – nicht Werk

Die Entscheidung des Magazins (Samstagsbeilage zu Tagesanzeiger, Berner Zeitung und Basler Zeitung), seine Website mit einem Wiki zu verwalten und die Leser/innen einzubinden und mitwirken zu lassen (allerdings nur kommentierend…), hat mich noch einmal darauf aufmerksam gemacht, warum das „web 2.0“ auch mit dem Begriff „Social Software“ bezeichnet wird (Hinweis auf die Wikisierung des Magazins von Beat). Ich komme wieder zu einer Bemerkung, die ich bereits anlässlich des Workshops „Wikipedia in den Wissenschaften“ vor ein paar Wochen äusserte: Wikipedia (und auch andere Anwendungen des Web 2.0) ist weniger ein Werk (also: ein Buch, eine Zeitung, ein Film), das Informationen anbietet, sondern eher ein Ort, an dem Menschen über Inhalte verhandeln, sich austauschen und sich treffen. Weiterlesen

Geschichte 2.0: Geschichte lernen mit Social Software – ein Dissertationsprojekt

Seit Anfang dieses Jahres arbeite ich an einem Dissertationsprojekt, dass sich für die Zusammenhänge von Lernprozessen in der Geschichte und der Nutzung von Social Software interessiert. Ich möchte im Weblog in loser Folge (nebst den Hinweisen auf Entwicklungen und Neuigkeiten im und für den Bereich Geschichtswissenschaft und digitale Medien) über Erfahrungen, Schwierigkeiten und Erfolgserlebnisse berichten, die sich Verlauf meiner Arbeit ergeben. Weiterlesen

Yahoo Pipes: Web 2.5 ante portas?

Das Web 2.0 war einmal, Web 2.5 steht vor der Türe! Dies zumindest ist mein erster Eindruck, nachdem ich mich ein wenig in die Möglichkeiten von Yahoo Pipes eingelesen und ein wenig herumgespielt habe. Um was geht es? Yahoo hat ein Tool ins Netz gestellt, mit dem jede/r sogenannte Mashups zusammenklicken kann. Die Bereitstellung von wirklich interaktiven, individualisierbaren Portalen wie zum Beispiel Pageflakes ist nun nicht mehr mit einem immensen Programmieraufwand verbunden, sondern lässt sich einigermassen simpel zusammenklicken. Das ist eine neue Dimension, denn damit lassen sich die engen Fesseln, die bisher mit den Web 2.0 verbunden waren, aufbrechen.

Nun können wir gespannt sein, wann die ersten „Pipes“ auftauchen, die sich mit historischen Themen befassen. Klar, dass wir auf hist.net auch mit „Pipes“ experimentieren und hoffentlich schon bald erste Beta-Versionen präsentieren werden …!

Tagging, Google oder Virtuelle Fachibliothek?

Das Non-Profit-Organisation Pew Internet and American Life Project legt einen neue Studie zum Tagging vor, wonach Tagging von 28% der Internet-User (in Amerika) genutzt wird, von 7% sogar regelmässig, um Inhalte im Internet strukturell zu erschliessen.

Kollege Ben vom Institut für Bibliotheks- und Informationswissenschaften an der Humboldt-Universität in Berlin kommt zum Schluss:

..selbst wenn es so manche im Bereich der bibliothekarischen Sacherschließung geschulten Informationsprofis nicht wahrhaben wollen, scheint dieses Verfahren im Alltagsgebrauch zusammen mit einer “googlianischen” Volltexterschließung für den Standardbedarf an Internetinhalten effektiver als die eine oder andere Virtuelle Fachbibliothek. (Die Web-Informations-Prosumer erschliessen sich selbst, IB Weblog, 1.2.2007)

Tagging könnte einerseits schnell und brauchbar eine gangbare Lösung für die Strukturierung von Internet-Beständen sein. Denkbar wäre Tagging auch für die zusätzliche Erschliessung bereits strukturierter Daten wie Bibliothekskataloge. Dass sich die Bibliotheken offen zeigen für neue Erschliessungsansätze, zeigt (m.E.) das Beispiel BibTip.

Search Wikia: Das Wiki-Prinzip für Suchmaschinen

Wikipedia-Gründer Jimbo Wales will etwas Neues anpacken. Warum nicht, so dachte er sich wohl, die Welt der Suchmaschinen aufmischen. Denn die gängigen Suchmaschinen von Google bis Yahoo seien ohnehin kaputt:

It is broken for the same reason that proprietary software is always broken: lack of freedom, lack of community, lack of accountability, lack of transparency. Here, we will change all that. (J. Wales@Wikia, 23.12.2006)

Drum will Wales ein neues Projekt namens Search Wikia lancieren, das die Entwicklung einer Open-Source-Suchmaschine zum Ziel hat. Der Index soll jedermann zugänglich sein, und die Kriterien, die zur Rangierung der Suchergebnisse herangezogen werden, sollen transparent gemacht werden und sich auf Einschätzungen einer vertrauenswürdigen Community stützen.

Und was meint die Internet-Community dazu? Sie berichtet relativ gelassen und reiht die Wikia-Initiative unter die vielen „Killer“-Meldungen ein von Projekten, die einem erfolgreichen Web-Unternehmen das Fürchten lehren wollen. (Heise, C-net, TechCrunch (mit Screenshot)).

Ach ja, Amazon soll sich an dem Projekt finanziell beteiligen, heisst es da und dort. Allerdings hat Amazon vor allem in die Firma Wikia von Jimbo Wales Geld eingeschossen, zu der Search Wikia gehört. Ein direkter Link von Amazon zu Wikiasari ist nicht bekannt. Und: das Projekt heisst nicht „Wikiasari“ (als Vermengung von Wiki und dem japanischen Wort „Asari“ für „Suchen“), obwohl es in fast allen Meldungen mit diesem Namen bezeichnet wird.

Was das für die Praxis der Internet-Recherche für Historiker und Historiker bedeutet, ist mir noch unklar: Bessere oder andere Suchergebnisse? Oder noch mehr Wikipedia-Artikel? Wir berichten, sobald mehr (und Essentielleres) bekannt ist.

Aus der Welt der Wikis: Wikipedia hören – bei SWR2

Nein, dies ist kein Hinweis auf eine gesprochene Version von Wikipedia. Auf die Hörbuch-Version für den MP3-Player oder das Autoradio warte ich noch. Aber während der Wartezeit kann man sich dieses interessante Feature des SWR2 anhören (Real-Audio-Stream), das sich unter anderem mit der Frage befasst, warum Wissenschaftler sich mit dem kollaborativ erstellten Online-Lexikon schwer tun. Wer lieber liest, kann auf das Transkript ausweichen. Und wer sich gerne historisch vergleichend betätigt: im Oktober 2004 war Wikipedia schon einmal ein Thema eines (kürzeren) Beitrags. Damals trug die Sendung den vorsichtig fragenden Titel „Lexikon der Zukunft?“ 2006 lautete der Titel „Das Lexikon zum Selbermachen“. 2004 umfasste Wikipedia 150’000 deutsche Einträge, heute sind es 482’000 – mehr als drei Mal so viele. Übrigens kommt nebst Wikipedia-Gründer Jimmy Wales nur noch Jakob Voss in beiden Features zu Wort. In diesen schnell-lebigen Zeiten fast schon eine Auszeichnung.

Übersicht: Aus der Welt der Wikis

Aus der Welt der Wikis: Die vielen Einzelnen und das eine Kollektiv in Wikipedia

Internet-Autorität (wobei, was heisst das schon?) Jaron Lanier (Bio bei Wikipedia/Stanford University/Laniers Website) rechnet in seinem Essay „Digital Maoism“ ab mit dem Hype um den HiveMind, die Schwarmintelligenz, die ich hier (als „kollektive Intelligenz“) und hier (als „Weisheit der Vielen“) auch schon erwähnte und die immer wieder gerne zitiert wird im Zusammenhang mit allen möglichen Aspekten des „web 2.0“ und der Tätigkeiten der Internet-Communities.

Dabei plädiert Lanier für eine Kombination von kollektiver und individueller Intelligenz, die mit ihren jeweiligen Stärken ihre jeweiligen Schwächen auszugleichen vermögen. Genau genommen wehrt sich Lanier lediglich dagegen, der kollektiven Intelligenz eine alles lösende Macht zuzuschreiben und geisselt die Tendenz, mit dem Schlagwort von kollektiver Intelligenz Verantwortung zu vermeiden und den Wert des Individuums gering zu schätzen. Zugespitzt sieht er die Gefahr in der Vorstellung, das Internet selber werde durch die kollektive Intelligenz zu einem handelnden und denkenden Subjekt.

The beauty of the Internet is that it connects people. The value is in the other people. If we start to believe that the Internet itself is an entity that has something to say, we’re devaluing those people and making ourselves into idiots.

Nun führte es zu weit, den ur-amerikanischen Topos des „freien Individuums“ in seiner digitalen Ausprägung und sein Erscheinen in der Argumentation von Lanier genauer zu analysieren. Doch bleibt bei mir eine gewisse Skepsis bei seiner Kritik an der kollektiven Intelligenz bestehen, die ja nun wirklich nicht einfach „Die Intelligenz des Internets“, sondern durch das Zusammenwirken von Individuen entsteht.

Lanier wendet sich zwar nirgends explizit gegen Wikipedia, aber doch gegen die (seiner Ansicht nach) dahinter stehende Vorstellung davon, dass eine unpersönliche Gestalt namens „Kollektiv“ eine Enzyklopädie bauen und irgendwie auch automatisch für seine Qualität bürgen werde. Stattdessen brauche es Individuen, welche die Qualität kontrollierten. Nun, was ist Wikipedia anderes als eine Ansammlung von Individuen, die jeweils ihre Interessen verfolgen und darüber kommunizieren? Und was machen die Nutzer und Administratoren (alles Individuen) anderes, als Qualität beständig zu überprüfen? Die Rolle der Einzelnen in der Wikipedia wurde bereits mehrfach (und zwar auch von Gründer Jimmy Wales selbst) skizziert: Dass sich nur wenige tausend Autoren, die sich mit dem Projekt identifizieren, mit einer Grosszahl an „Edits“ (Bearbeitungen von Texten) an der Entwicklung der Wikipedia beteiligten (Link muss ich noch nachliefern, zitiert wird Wales von Swartz im folgenden Link). Zugespitzt: einige wenige schreiben und entwickeln die Artikel, die grosse Masse korrigiert vereinzelte Kommafehler. Aaron Swartz hat neuerdings genau die umgekehrte These vertreten, die noch stärker die Paradoxie von Kollektiv und Individuum beleuchtet (Who writes Wikipedia? – Deutsche Übersetzung von Tim Bartels in Wikipedistik). Swartz vermutet (nach der Analyse einiger Artikel), dass Aussenseiter (oft anonyme Sachexperten) einen Sachverhalt einmal grundsätzlich schreiben, und diese dann in vielen Einzelschritten von der „Kerngruppe“ geordnet, geglättet und strukturiert wird. Der Blog „Social Software“ erklärt das mit einem bekannten Modell: Autoren schreiben, Redaktoren überarbeiten. Ist das nun „Schwarmintelligenz“?

Letztlich geht es ja nicht um „Kollektiv“ und „Individuum“, sondern (meiner Ansicht nach) um Zufall gegen Planung und dann um Entscheidungs- und Gestaltungs-Macht. Wie die Debatte zwischen Exklusionisten und Inklusionisten zeigt, ist das Spannende (und zugleich Ärgerliche) an Wikipedia die Rolle des Zufalls bei der Auswahl und Gestaltung der Artikel. Die Exklusionisten wollen alle „seichten“ Einträge, die nicht in ein richtiges, akzeptiertes Lexikon mit kanonisiertem, wissenschaftlichen Wissen gehören, aus Wikipedia streichen. Aber zuweilen gehören gerade die Artikel über die so genannten Trivia zu den besseren (weil persönlicheren); zum anderen machen gerade diese Artikel den interessante Mix von Wikipedia aus. Es gibt keinen „Masterplan“, der top-down die Wissensinhalte strukturiert, sondern die Inhalte entstehen bottom-up und chaotisch – wie das Internet als Ganzes ja auch. Und wie ich das verstehe, ist gerade das chaotische Entstehen eines

Deshalb gibt es in Wikipedia die Möglichkeit, aufgrund eines Masterplans Inhalte oder Autor/innen ein- oder auszuschliessen. Es gibt Regeln dafür, aber vor allem beständige Aushandlungsprozesse, die auf flexible Kriterien hindeuten; bis hin zum Risiko der Willkür. Aber ist das Kollektivismus? Vielleicht verstehe ich auch Laniers Vorwurf nicht ganz (oder das Prinzip der Schwarmintelligenz oder beides). Jedenfalls diskutieren in den einzelnen Artikeln und zu den jeweiligen Fragen zur Gestaltung der Wikipedia sehr konkrete einzelne Individuen. (Allerdings – dies ist Stärke und Schwäche zugleich – können diese auch anonym bleiben). Problematisch wird dies dort, wo statt Konsens verkappte Mehrheitsentscheide „durchgedrückt“ werden – also derjenige oder diejenige Recht behält, der oder die den längeren Atem hat.

Kollektivistisch (um wieder auf diese Frage zurückzukommen) im Sinne der Schwarmintelligenz ist nach meiner Einschätzung die Annahme, dass früher oder später die Enzyklopädie als Ganzes durch wundersame Selbstheilkräfte von selbst auf ein akzeptables Niveau gelangen kann. Dies halte ich anders als Lanier nicht für naiv oder gefährlich, sondern einfach für wenig wahrscheinlich. Ich vermute, diese kollektive Intelligenz wird nicht spielen: Die Unterschiede werden bleiben (wenngleich vielleicht nicht so ausgeprägt) und sie sind stark von der zufälligen Konstellation abhängig, ob sich sachkompetente Individuen zusammenfinden, die ein Thema behandeln, das sich gut für enzyklopädische Abhandlung eignet, und sich auf einen Konsens bei der Darstellung des Themas einigen können. Gute Artikel leben vom Engagement von Menschen, die sich um diese guten Artikel kümmern – genauso lebt die Wikipedia vom Engagement einer Gruppe von Menschen, die sich (aus welchen Gründen auch immer) für diese Projekt einsetzen (siehe Aaron Swartz: Who runs Wikipedia? Ich habe mir die Frage auch schon gestellt, aber nicht so gut beantwortet.)

Und bei diesen Diskussionen geht es – natürlich – auch um Entscheidungsmacht. Diese ist bei Wikipedia (wie oft in solchen Community-basierten Projekten des web 2.0) nicht abgeleitet aus einer hierarchischen, auf (angenommener, oft auch behaupteter) Sachkompetenz beruhender Struktur (Abteilungs-, Forschungsleiter, Herausgeber, Lektor), sondern eher auf einer auf Engagement und Tätigkeitsausweis beruhender Meritokratie. Aber Konflikte wie jene von Bertrand Meyer, der noch vor wenigen Monaten Wikipedia lobte, und nun verzweifelt das Handtuch wirft, weil er sich mit seiner Auffassung eines Sachverhalts in einem spezifischen Artikel der Wikipedia nicht durchsetzen kann, gibt es auch in „Offline“-Situationen. Menschen haben verschiedene Ansichten, sie streiten darüber, am Schluss können sich gewisse Personen mit ihren Ansichten durchsetzen und – nein, auch in der Wissenschaft sind es nicht immer die wissenschaftlichen Argumente, die ausschlaggebend sind. In der Wikipedia wird der Konflikt immerhing transparent gemacht – er ist nachzulesen, jeder Interessierte kann sich selbst über den Gang der Argumentation ins Bild setzen. Ob das zum Verständnis des Konflikts bereits ausreicht, ist noch einmal eine andere Frage; ebenso, wer den Prozess überhautp analysieren will.

Jedenfalls scheint mir bei der Debatte um die „wissenschaftliche Gültigkeit“ von Wikipedia das Ergebnis (also die Inhalte) zu Unrecht mehr Beachtung zu finden als der Prozess, durch den die Inhalte entstehen und sich verändern. Hat nicht Jimmy Wales das Wiki-Prinzip treffend zusammengefasst

„The basic thing I think makes it work is turning from a model of permissions to a model of accountability. It isn’t that you are allowed or not allowed to edit a certain thing; it’s when you do it, that change is recorded, and if it’s bad, people can see that.“

Mir scheint, es fehlt noch die Gewohnheit im Umgang mit einem System, in dem ein Modell der „accountability“, also der Verantwortlichkeit im Detail, angewendet wird.

Was mich mehr beschäftigt bei der „kollektiven Intelligenz“ ist die Frage nach der „Aggregation“ bereits vorhandenen Wissens, wie es Wikipedia als Community-basiertes Enzyklopädie-Projekt in Reinkultur darstellt: was wird eigentlich „neu“ geschaffen? Und wer verdient mit dieser Aggregation sein Geld? Und was hat diese (neue?) „Kulturtechnik“ der Aggregation für Auswirkungen auf das wissenschaftliche Arbeiten: hier ist ja das Zusammentragen des Forschungsstandes (=aggregieren) gang und gäbe. Zutreffend bemerkt Lanier:

Accuracy in a text is not enough. A desirable text is more than a collection of accurate references. It is also an expression of personality.

Das gilt bei historischen Texten besonders, auch Rosenzweig hat auf diesen Mangel bei den kollaborativ erstellten Texten der Wikipedia hingewiesen.

Literatur

HOK Schreiben: Wiki und Blogs vereint

Nicht genug, dass freie Blog-Angebote zum Ausprobieren verfügbar sind (zum Beispiel nur zwei sehr bekannte: blogger und twoday), bzw. sogar die Möglichkeit besteht, sich seine eigene Weblog-Software auf ein Stück Web-Space zu laden (zum Beispiel WordPress): mit infogami bietet Aaron Swartz eine Möglichkeit, Blogs und Wikis zu kombinieren: Wer will, kann seine Blog-Einträge gleich zum Editieren für jedermann freigeben.
Hinweis gefunden bei Text & Blog

Übersicht HOK Lesen/SchreibenAus der Welt der WikisAus der Welt der Blogs