Schlagwort-Archive: Suchmaschinen

Der Altavista lebt! … (und der Lycos und der Hotbot auch)

Altavista Lebet
So höret Ihr Kinder, ich will Euch erzählen von alter Zeit. Es gibt einige ältere Mitbürger/innen unter uns, die mit „Altavista“ nicht eine Outdoor-Sportmarke, ein Brillenfachgeschäft oder ein Arnold-Schwarzenegger-Zitat ((Altalavista, Baby!)) assoziieren. Denn, oh ja, es war einmal eine Zeit, als in den Bibliotheken noch Zettelkästen stunden und die tapfersten und aufgewecktesten der jungen Generation, geschmacklos in leuchtende Farben gekleidet, sich dem neusten Schrei der Technik hingaben und zu ihren Freunden sprachen: Siehe, ich tippe ein Wort in ein Suchfeld und es werde, dass daraus eine Hyperlink-Liste entstünde, die zu allerlei Hypertexten auf der ganzen Welt verlinket. Und es geschah also. Weiterlesen

«Suchmaschinen» avant la lettre?


Ausschnitt aus Illustration „Kapitän Nemo nimmt den Höhenstand der Sonne auf“ ((Jules Verne: Zwanzigtausend Meilen unter’m Meer. Bekannte und unbekannte Welten. Abenteuerliche Reisen von Julius Verne, Band IV–V, Wien, Pest, Leipzig 1874, S.112, verfügbar bei WikiCommons (http://de.wikipedia.org/w/index.php?title=Datei:JulesVerneNemo.jpg&filetimestamp=20110213025900).))

Interessant, was ich bei der Lektüre von Jules Vernes „20 000 Meilen unter dem Meer“ entdecke:

Der Kapitän Nemo, ohne mir zu antworten, winkte mir, ihm in den großen Saal zu folgen. Der Nautilus tauchte einige Meter unter das Wasser, und die Läden öffneten sich. Ich eilte an das Fenster, und erkannte unter Korallen versenkt, mit Seepflanzen überdeckt, mitten unter zahllosen reizenden Fischen, etliche Trümmer, welche die Suchmaschinen nicht hatten fassen können, lauter Gegenstände gescheiterter Schiffe. ((Verne, Jules: Zwanzigtausend Meilen unter’m Meer. Bekannte und unbekannte Welten. Abenteuerliche Reisen von Julius Verne, Band IV–V, Wien, Pest, Leipzig 1874, S. 163-164; zitiert nach Zeno.org (http://www.zeno.org/Literatur/M/Verne,+Jules/Romane/Zwanzigtausend+Meilen+unter%27m+Meer/1.+Theil/19.+Capitel).))

Suchmaschinen? Ist Jules Verne also nicht nur das Erdenken elektrisch betriebener U-Boote und der Mondfahrt zuzuschreiben, hat der berühmteste Science-Fiction-Autor der Grande Nation auch das Internet vorhergesagt? Weiterlesen

Google goes Facebook?

Bevor Kollega Hodel wieder einen seiner berüchtigten Erstaprilscherze hier ablässt, hier noch eine seriöse Meldung, die ich heute aus der News-Flut gefischt habe und die mich etwas nachdenklich gestimmt hat: Verschiedenen Berichten zu Folge führt Google eine neue Funktion ein, welche es den Nutzer/innen ermöglicht, Anzeigen und später auch Treffer zu «liken». So wie bei Facebook auch.
Weiterlesen

Wolfram Alpha und Geschichte?

wolphram-alpha
Kollega Mills Kelly hat die neue Suchmaschine Wolfram Alpha, die vor wenigen Wochen ihren Beta-Betrieb aufgenommen hat, etwas genauer unter die Lupe genommen. Er kommt dabei, wenig überraschend, aber überzeugend zum Schluss, dass sich die neue Suchmaschine, die nicht nach passenden Textstücken in gespeicherten Web-Seiten sucht, sondern die Frage der User mittels spezieller Algorithmen aus bestehenden, strukturieren Datenbeständen beantworten will, für geschichtswissenschaftliche Zwecke kaum nutzen lässt. Weiterlesen

Vor-Google in Wien (II)

Nun liegt die schöne Tagung in Wien schon fast eine Woche zurück, höchste Zeit also, ein paar Eindrücke zusammenzufassen. Für mich war es eine der fruchtbarsten Tagungen, die ich letzter Zeit besucht hatte. Nicht nur war sie bestens organisiert und konzipiert worden, auch Grösse, Lokalität und Stimmung waren optimal.
Weiterlesen

Suchen in den Zeiten vor Google

Kollega Hodel hat ja freundlicherweise darauf hingewiesen, dass Google kürzlich sein zehnjähriges Geburtstagsfest feiern durfte (ja, hist.net ist gleich alt, über gemeinsame Festivitäten verhandeln wir noch).

Aus der simplen Suchmaschine mit dem eingängigen Logo und dem anfänglich guten Image ist eine omnipräsente Datenkrake geworden, vor dessen Diensten mittlerweile viele Datenschützer mit Nachdruck warnen. Google, das ist für viele heute der Inbegriff des nimmersatten Computer-Molochs, unheimlich und faszinierend zugleich. Denn Google, das ist auch die scheinbare Einlösung des Versprechens, endlich «information at your fingertips» zu haben, wie es Bill Gates bereits 1990 vorausgesagt hatte.
Weiterlesen

Suchen im Netz: «algorithmisch» und/oder «sozial»?

Die Techniken des Suchens im Netz gehören noch immer zu den am meisten diskutierten Themen beim wissenschaftlichen Umgang mit dem Internet. Während man sich vor zehn Jahren noch zwischen systematischen Suchdiensten wie Yahoo und Volltextsuchen wie Hotbot und später Google entscheiden musste, lautet die Frage heute «algorithmische Suche» oder «soziale Suche»? Mit einer «algorithmischen Suche» sind Volltextsuchen gemeint, eine «soziale Suche» bezeichnet die Verwendung von Web 2.0-Angeboten, die mit offenen Beschlagwortungen, sogenannten Folksomomien, arbeiten.
Weiterlesen

Das Schlaue Buch (II): 10 Jahre Google – oder: Das weisse (Daten-)Loch

Google Start 1998

Ich fand ja den Kunstgriff von Kollega Haber, zwecks Veranschaulichung von Allmachts- oder besser Allwissenssphantasien das «Schlaue Buch» des Entenhausener Universums ins Feld zu führen, schon genial, als er ihn im Jahr 2005 noch auf das «Google-Syndrom» angewandt hat ((Haber, Peter: «Google-Syndrom». Phantasmagorien des historischen Allwissens im World Wide Web, in: Epple, Angelika; Haber, Peter (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005, S. 73-89.)) – übrigens auch eine Haber’sche Wortschöpfung.

Nun kann man sich streiten, ob Wikipedia dem «Schlauen Buch» besser entspricht als Google – beide bedienen Phantasien des allgegenwärtigen, sofort abrufbaren Wissens – so verschieden sie sind. Und Sie sind in mehrfacher Hinsicht sehr verschieden. Google bedient dabei die Ängste, die mit solchen Phantasien auch verbunden sind, weitaus besser. Weiterlesen

Digitale Information: Evolution, Revolution, Erosion?

Ein sehr schöner Kurzfilm von Michael Wesch, dem wir auch den Beitrag zu Web 2.0 (The Machine is Us/ing Us) verdanken (vor einiger Zeit hier besprochen), thematisiert die Veränderung der Handhabung von Information (insbesondere die Strukturierung und Ordnung, aber auch die Generierung und Speicherung), die auf ihre digitale Gestalt zurückzuführen ist. Kernaussage: Da die Informationen keine physikalischen Beschränkungen mehr unterworfen sind, wird die Ordnung der Informationen vielfältiger, flexibler und für jedermann einfacher zugänglich.

Also, wenn dieser Film keine Diskussion auszulösen vermag (Sollen, bzw. können wirklich Tag-Clouds von Laien die Referenzsysteme von Fachexperten ablösen?), dann weiss ich auch nicht mehr weiter. In diesem Sinne wünsche ich dem Film die von Beat Döbeli vorhergesagte „Durchreichung“ durch die einschlägigen Blogs. Denn er scheint mir die Kernfrage zu behandeln: wie organisiert die Wissengesellschaft im digitalen Zeitalter ihre Informationen? Verschwinden innerhalb kurzer Zeit die etablierten Kulturtechniken der Suche, die sich auf hierarchische Strukturierungssysteme beziehen, die einem sachlogischen Aufbau folgen und die die Informations-Recherchen entsprechend gliedern, indem sie der eigentlichen Suche die Entscheidung des Suchenden verlangen, welcher Kategorie er sein Themengebiet zuordnet? Die Volltext-Suche legt ja nach dem Trial & Error-Prinzip einfach mal los, die Strukturierung entsteht ja ad hoc beim Akt des Recherchierens aus dem Vorwissen des Suchenden und den Ergebnissen der Suchmaschinen. Es braucht keine hierarchische Struktur mehr, meint Wesch, „the links alone are enough“.

Google, meine Daten und ich

Nicht ich nutze Google – Google nutzt meine Nutzung von Google und ich frage mich: Gehören die Daten, die ich bei der Benutzung von Google generiere, mir – oder Google?

Wenn ich bei Archivalia den Hinweis lese, dass in GoogleBooks neuerdings auch die Einsicht in die Quelltexte möglich ist (Texterkennungsoftware sei dank – obwohl diese (noch?) vor alten Schriften kapitulieren muss), denke ich spontan: wie praktisch! Bald (also in 5 Monaten oder in 5 Jahren, je nachdem), sind alle für mich relevanten Bücher auf dem Netz (Volltextversion und Google-Indizierung sei dank) mit einem Mausklick zu durchforsten. Weiterlesen

Digitale Geschichte der Zukunft (nach William J. Turkel)

Den Weblog Digital History Hacks von William J. Turkel habe ich schon als Geschichtsblog des Monats März vorgestellt. Turkel hat letzthin in drei Blog-Beiträgen seine Vorstellungen von der Zukunft der Geschichtswissenschaften im digitalen Zeitalter erläutert. Die Stichworte: Links, Informationsmenge, Interaktion (Mashups).

Weiterlesen

Search Wikia: Das Wiki-Prinzip für Suchmaschinen

Wikipedia-Gründer Jimbo Wales will etwas Neues anpacken. Warum nicht, so dachte er sich wohl, die Welt der Suchmaschinen aufmischen. Denn die gängigen Suchmaschinen von Google bis Yahoo seien ohnehin kaputt:

It is broken for the same reason that proprietary software is always broken: lack of freedom, lack of community, lack of accountability, lack of transparency. Here, we will change all that. (J. Wales@Wikia, 23.12.2006)

Drum will Wales ein neues Projekt namens Search Wikia lancieren, das die Entwicklung einer Open-Source-Suchmaschine zum Ziel hat. Der Index soll jedermann zugänglich sein, und die Kriterien, die zur Rangierung der Suchergebnisse herangezogen werden, sollen transparent gemacht werden und sich auf Einschätzungen einer vertrauenswürdigen Community stützen.

Und was meint die Internet-Community dazu? Sie berichtet relativ gelassen und reiht die Wikia-Initiative unter die vielen „Killer“-Meldungen ein von Projekten, die einem erfolgreichen Web-Unternehmen das Fürchten lehren wollen. (Heise, C-net, TechCrunch (mit Screenshot)).

Ach ja, Amazon soll sich an dem Projekt finanziell beteiligen, heisst es da und dort. Allerdings hat Amazon vor allem in die Firma Wikia von Jimbo Wales Geld eingeschossen, zu der Search Wikia gehört. Ein direkter Link von Amazon zu Wikiasari ist nicht bekannt. Und: das Projekt heisst nicht „Wikiasari“ (als Vermengung von Wiki und dem japanischen Wort „Asari“ für „Suchen“), obwohl es in fast allen Meldungen mit diesem Namen bezeichnet wird.

Was das für die Praxis der Internet-Recherche für Historiker und Historiker bedeutet, ist mir noch unklar: Bessere oder andere Suchergebnisse? Oder noch mehr Wikipedia-Artikel? Wir berichten, sobald mehr (und Essentielleres) bekannt ist.

HOK Lesen/Schreiben: Von Aggressionen und Aggregatoren

Der Fall einer belgischen Zeitung, die sich gegen die ungefragte Verwertung durch GoogleNews wehrt, weist auf eine bemerkenswerte Eigenschaft der Internet-Gesellschaft. Die Aggregation von Daten, die von anderen erstellt worden sind, wird zu einem Mehrwert generierenden (und damit Profit abwerfenden) Service. Google programmiert die Suchmaschinen, welche die Websites der bekannten Zeitungen abgrasen, lässt die Inhalte gescheit darstellen und kassiert für diese Aggregation eine Menge Werbegeld, dass den Produzenten der Informationen fehlt.

Auf dieses Ungleichgewicht der web 2.0-Ökonomie weist auch Geert Lovink in seiner kritischen Würdigung „Kein Zugriff“ hin (Zusammenfassung seiner kommenden Publikation bei „Jungleworld„). Er zeigt das Prinzip auch anhand community-basierter Aggregations-Leistungen auf. Die Tagging-Funktionen habe nicht nur strukturierenden Nutzen für die angemeldeten User einer Community. Sie lassen auch Profilierungen und Marktstudien zu. Wikipedia (um noch einen Schritt weiter weg von den technischen Aggregations-Definitionen zu gehen) ist nicht nur eine Gratis-Dienstleistung, die locker alle bezahlten Modelle der Wissensaggregation (Lexika) punkto Popularität aussticht – es ist auch ein Rekrutierungsfeld für Autor/innen, die sich bereits profiliert haben und nun in anderen Projekten genutzt werden können. Wikipedia ist auch eine beliebte Quelle für so genanntes DataMining: das Auswerten der Datenbestände mit verschiedensten Fragestellungen.

Bei Google kann man noch der Meinung sein, es handle sich um eine Produktivitätssteigerung bei der Datenverwertung, wie dies die Mechanisierung und Informatisierung bei der Produktfertigung im 19. und 20. Jahrhundert war. Doch bei den Geschäftsideen im web 2.0 wird mit dem Community-Effekt günstig produziert, dank Idealismus, Altruismus, Spieltrieb, Exhibitionismus. Jüngstes Beispiel ist der Versuch von Google, mit einem Online-Game durch die Community seine Bilddatenbank beschlagworten zu lassen. Wikipedia ist zwar im Gegensatz zu Google (und anderen web 2.0-Firmen) ein Non-Profit-Unternehmen. Doch es generiert auch ziemlich viel Geld – durch Spenden. Davon können einige Leute leben, nicht zuletzt Gründer Jimmy Wales. Doch weitaus wichtiger: die Wikipedia-Community beschert dem Wikipedia-Gründer wertvolle Aufmerksamkeit, die er auch für kommerzielle Projekte (wie Wikia) nutzen kann. Letztlich geht es bei Projekten wie bei Wikipedia nicht nur um die Frage der wissenschaftlichen Güte der gemeinschaftlich-ehrenamtlich erstellten Inhalte. Es ist auch eine Verdrängung bezahlter Professionals durch idealistische Freiwillige.

Zuletzt noch ein gewagter Schlenker in die akademische Welt. Wer die Bedeutung des Aggregations-Prinzips für das web 2.0 verstanden hat, und sieht, wie dieses Prinzip bei Google, Flickr, Wikipedia und in privaten Blogs zur Anwendung kommt, staunt nicht mehr darüber, dass mit den Nutzer/innen des web 2.0 auch Copy/Paste-Verhalten und Plagiats-Vergehen in den Universitäten Einzug halten. Doch einfach nur ein sorgloses Umgehen mit fremdem geistigen Eigentum bei den jungen Studienanfängern zu beklagen, greift zu kurz. Was wird denn von Ihnen verlangt – und was haben Sie für Vorbilder?

In einem zunehmend verplanten und modularisierten, auf Leistung (= in Credits messbaren Output) getrimmten Bologna-Hochschul-System kann es nicht überraschen, dass die Aufgaben im Grundstudium oft einfachen Aggregationen gleichen. „Fassen Sie zusammen!“ ist als wissenschaftliche Herausforderung so dürr, dass es zum Copy/Paste einlädt. Stattdessen wären klare Fragestellungen zu verlangen, bzw. auch zu vermitteln, was eine klare Fragestellung ausmacht und wie diese eine wissenschaftliche Arbeit schon grundlegend strukturieren kann. Denn: auch wer sauber ein Zitat nachweist, muss es noch lange nicht gelesen oder gar verstanden haben.

Generell sollte nicht nur mit dem Argument der wissenschaftlichen Redlichkeit (keine fremden Erkenntnisse als eigene ausgeben) gearbeitet werden. Denn oft sind die Vorbilder nicht so vorbildlich, wie sie sein sollten: Auch bestandene Akademiker werden immer öfter beim Tricksen und Klauen entlarvt – nicht immer mit Konsequenzen. Und ist eine Paraphrase nicht oft einfach eine elegante Vermeidung des offensichtlichen Bekenntnisses, dass einem selber nichts Besseres eingefallen ist, man dies aber elegant in eigene Worte fassen kann?

Immerhin, und dies sei hier auch erwähnt, kann nicht genug auf die lernpsychologische Wirkung des epistemischen Schreibens hingewiesen werden: Sachverhalte besser verstehen, indem man sie verständlich niederzuchreiben versucht.

Zu den Argumenten der Redlichkeit und der Lernpsychologie kommt auch noch jenes der Urheberrechte: man ist in der Regel nicht befugt, ohne Nachweis längere Passagen aus Werken anderer abzuschreiben/ zu kopieren. Hier gilt jedoch zu beachten, dass die GNU Public License die bestehenden Regeln verändert. Aus Wikipedia darf ohne Zitatnachweis wörtlich zitiert (auch in beliebig abgeänderter Form) werden – solange das Ergebnis auch der GNU Public License untersteht und frei weitergegeben und weiter bearbeitet werden kann.

Noch zum Titel: Angesichts der starken Überzeugungen, die zur Disposition stehen (Konzepte der Wissenschaftlichkeit), und der ökonomischen Realitäten (Wer bezahlt und wer kassiert?) wundert mich der zuweilen scharfe Ton nicht, mit dem über die „schlimmen Entwicklungen“ des Internets – und des web 2.0 als Untermenge davon – hergezogen wird. Aber bleibt nur Euphorie, Fatalismus oder Beklagen?

Literatur:

Übersicht HOK Lesen/Schreiben

HOK Lesen: Suchen und Finden: Ich bin nur eine Maschine!

Eine interessante Mitteilung bei Heise:
Die Suchmaschinen-Betreiber verlangen eine Änderung der gesetzlichen Grundlagen für ihre Dienstleistung, denn:

„Suchmaschinen werden in einem zunehmenden Maße mit der Entscheidung in Anspruch genommen, ob einzelner Inhalte im Internet auffindbar und zugänglich sein sollten oder nicht“, monieren die Anbieter. Sie sähen sich dabei angesichts der sehr weitgehenden zivilrechtlichen (Störer-) Haftung dazu gezwungen, bereits von der Mitteilung einer rein behaupteten Rechtsverletzung einzelne Suchtreffer aus ihren Ergebnislisten zu löschen. Diese Situation machten sich „zahlreiche Akteure“ durch bewusstes Abmahnen missliebiger Inhalte etwa von Konkurrenten zunutze. Die Praxis zeige, dass hinter den angeblichen Rechtsverstößen häufig seriöse und vollkommen legale Inhalte steckten.

Daraus folgt:

„Auf Verdacht“ hin vorgenommene Maßnahmen von Suchmaschinen stellten auch einen „starken Eingriff“ in die grundgesetzlich geschützten Informationsinteressen der Nutzer dar.

Mit anderen Worten: Manipulationen der Suchmaschinen-Indices (also der in Datenbanken abgelegten Verweise auf Websites, die als Ergebnisse bei Suchanfragen ausgewiesen werden) sind an der Tagesordnung.

Soweit so gut. Eine Änderung der Rechtslage weg von einer „vorauseilenden Gehorsams-Zensur“ wäre wohl wünschenswert; obwohl unklar bleibt, wie gross der Schaden sein könnte, der durch die Verzögerungen entsteht, wenn illegale Inhalte erst nachträglich, auf Antrag und womöglich mit richterlicher Anordnung gelöscht werden können.

Erstaunlich finde ich die Argumentation der Suchmaschinen-Betreiber. Suchmaschinen böten…

(…) wie Zugangs- oder Hostprovider keinen eigenen Content an, sondern machten Inhalte Dritter auf „Milliarden unterschiedlicher und sich permanent verändernder Webseiten“ ausfindig, indexierten sie und verschafften dem Nutzer Zugang dazu.
„Suchmaschinen im eigentlichen Sinne sind keine redaktionell gestalteten Link-Kataloge“, heißt es in dem Positionspapier, das AOL, Google, Lycos, MSN, T-Info, T-Online und Yahoo gemeinsam verfasst haben. Die unüberschaubare Anzahl an Informationen im Internet könne auch gar nicht auf der Basis persönlicher Prüfung und Zusammenstellung der Suchergebnisse strukturiert werden, wehren sich die Anbieter vor einer Haftung für die von ihnen gelisteten Online-Materialien. Nur technische und „voll automatisierte Suchverfahren“ könnten zum Einsatz kommen, weshalb die Betreiber sich auch „zwangsläufig“ als „rein technische Infrastrukturdienstleister“ sehen. (Hervorhebungen durch jh)

Da kann ich nur sagen: „Ich bin nur eine Maschine!“ Aber warum bloss verkaufen die Suchmaschinen massenweise Werbung auf ihren Seiten? Hier wird doch ein klarer Mehrwert angeboten, der nicht nur mit „rein technischer Infrastruktur“ zu umschreiben ist. Maschinell ist ja lediglich die Ausführung des intellektuellen Ansatzes, die Ergebnisse zu sammeln, auszuwerten, zu gewichten und sortiert auszugeben (Stichwort „PageRank“).

Hier machen es sich die Suchmaschinen-Betreiber meiner Ansicht nach zu einfach. Sie sind mehr als reine technische Dienstleister, sondern zentrale Aggregatoren von Inhalten und recht eigentliche „Gatekeeper“. Dass keine inhaltlichen, sondern „nur“ ökonomische Interessen handlungsleitend sind, mag ein Trost sein. Die Suchmaschinenbetreiber wollen keine Inhalte ausschliessen, weil es nicht im Interesse des Nutzer liegt und folglich dem Geschäft schadet – das klingt einleuchtend. Aber wie können wir sicher sein, dass sie auch wirklich keine Inhalte ausschliessen oder sonstwie manipulieren? Und: ist es wirklich in jedem Fall im Interesse der Nutzer/innen, dass Inhalte nicht ausgeschlossen werden? Oder gibt es hier nicht eher doch konkurrierende Interessen?

Übersicht HOK Lesen: Suchen und Finden

HOK: Lesen – Vom Suchen und Finden XI: Die drei Königswege zur Ordnung im Chaos

Die Meldung von Heise, wonach Yahoo den Bookmark-Dienst Delicious (genauer de.lico.us) aufgekauft hat (ich erwähnte die Firma beim Thema „Tagging“ und „Communities„) stiess mich auf eine Erkenntnis. Yahoo ist einer der führenden Suchmaschinen-Dienste der Welt, ein Konkurrent von Google. Angefangen hatte Yahoo als Verzeichnisdienst, als redaktionell betreutes Angebot von Internet-Adressen, dessen Kategorisierungskriterien ebenso gut gehütet waren und sind wie die Such-Algorithmen und Ranking-Kriterien der Suchmaschinen. So sind nun bei Yahoo die „drei Königswege, Ordnung in das Chaos Internet zu bekommen“ unter einem Dach vereint:

  1. Der konventionelle Weg
  2. Der maschinelle Weg
  3. Der gruppenbasierte Weg

Der konventionelle Weg: Hier werden Fachredaktoren angestellt, die auf professioneller Basis nach fachlichen Kriterien Strukturen erstellen und Inhalte in diese Strukturen einfüllen. Die Analogie zur Arbeit der Bibliotheken ist offensichtlich, aber nicht immer so konsequent umgesetzt wie bei den Subject Gateways, etwa dem History-Guide. Drum ist die Arbeit der Subject Gateways wohl auch immer noch so unbekannt, dass nicht einmal ein Eintrag bei Wikipedia besteht (eine Übersicht über verschiedene Subject Gateways, wobei dort der Begriff sehr weit gefasst ist, ist bei Pinakes zu finden). Das Hauptproblem dieses Weges: die Arbeit ist schier endlos und ihre Bewältigung daher sehr teuer. Viele Projekte, die diesen Weg beschreiten, lassen in der Qualität nach, bzw. genügen wissenschaftlichen Kriterien nicht, oder müssen irgendwann die Arbeit einstellen.

Der maschinelle Weg: Die Hoffnung, dass Computerprogramme das Netz von alleine strukturieren können. Mit anderen Worten: die Suchmaschinen werden immer mehr besser programmiert, gesammelte Datenmengen zu strukturieren. Der Gipfel der Träume: Das semantische Web, in dem die Dokumente derart clever strukturiert sind, dass sie sich gegenseitig erkennen und aufsuchen können. Trotz jahrelangen Ankündigungen gibt es kaum Anzeichen dafür, dass der Durchbruch bevorstehe. Das Internet ist einfach schon zu chaotisch und voller unstrukturierter Inhalte. Das ist kaum „rückgängig“ zu machen.

Der gruppenorientierte Weg: Entweder Projekte im Sinne von Grassroot-Bewegungen: jeder leistet einen kleinen, freiwilligen Beitrag zum grossen Ganzen, und weil das Internet die ganze Welt verbindet, sind die Gruppen gross genug, dass aus dem vielen Kleinen etwas Grosses wird: siehe Open-Source-Software, Wikipedia oder das Webverzeichnis dmoz. Die Gruppenorientierung findet sich in vielen Feedback-Funktionalitäten: bei Amazon etwa „Menschen die diese Buch gekauft haben, kauften auch…“ oder „Kundenrezensionen“. Vom Tagging, dem freien Verwenden von Schlagworten, das auch für Suchmaschinen-Optimierungen gebraucht werden kann, hatten wir es schon mal.

So schliesst sich der Kreis. Bei Yahoo ist alles unter einem Dach. Und auch das hatten wir vor ein paar Jahren schon einmal. Damals hiess es „Portal“. Die Suche nach dem Gral oder dem Ei des Kolumbus wird wohl weitergehen auf den drei Königswegen. Wie ist Struktur in das Chaos zu bringen?