Schlagwort-Archive: Suchen und Finden

Konferenz-Ankündigung: «httpasts://digitalmemoryonthenet»

Aufgeschreckt durch die Rüge von Kollega Haber trage ich hier pflichtschuldigst einen Hinweis auf eine Tagung nach, die nächste Woche in Berlin stattfindet. Die Bundeszentrale für politische Bildung organisiert unter dem Titel httpasts://digitalmemoryonthenet in Zusammenarbeit mit 3Sat und der deutschen Kinemathek eine internationale Tagung, die sich mit dem Zusammenhang von Internet und Erinnerungskultur befasst. Das Feld an Referentinnen und Referenten ist illuster – und das natürlich unbesehen von meinem kleinen bescheidenen Beitrag am Samstag morgen im Workshop zu „Geschichtsrecherche im Internet“, den ich gemeinsam mit Kollege Alexander König durchführe.

Das komplette Programm ist hier zu finden, Anmeldungen sind noch bis morgen mit einem e-Mail an erinnerungskultur@projekt-relations.de möglich.

Das Online Computer Library Center

oclc

Das Online Computer Library Center, kurz OCLC, ist ein weltweites Netzwerk, das die bibliographischen Daten von vielen Ländern zusammenfasst und neue, webbasierte Interfaces entwickelt und anbietet.

Das prominenteste Tool ist der WorldCat. Er erlaubt die Suche in einem bisher unvorstellbaren Bestand von zur Zeit 1.434.544.930 Büchern. Man sollte WorldCat bei seinen bibliographischen Recherchen unbedingt berücksichtigen, da auch deutschsprachige und hiesige Titel im Netzwerk vorhanden sind. Am einfachsten installiert man sich dazu das Suchmaschinen Plug-in.

Das bereits 1967 gegründete und visionär benannte Online Computer Library Center entwickelt laufend neue Technologien und scheint auch die neusten Trends nicht verpassen zu wollen, wie ein demnächst statt findender Programmiermarathon anzeigt.

JSTOR hoch 10: HathiTrust

hathitrust
In wenigen Monaten werden wir nicht mehr von JSTOR reden, sondern nur noch von HathiTrust. HathiTrust nennt sich selbstbewusst das „grösste Unternehmen der Bibliotheksgeschichte“. HathiTrust wurde 2008 als Verbundprojekt von 25 US Universitätsbibliotheken lanciert. HathiTrust gibt bereits heute Zugang zu Millionen von digitalisierten Buchbeständen, ist aber nicht eine blosse Meta-Plattform, sondern eine robuste und dauerhafte Speicherinfrastruktur für die digitalen Bestände aller beteiligten Bibliotheken. HathiTrust hat ausserdem eine Langzeitarchivierungslösung und wird somit auch das weltweit grösste digitale Archiv sein.

Im Moment sind „erst“ 2.5 Mio Bände online. Ende Jahr werden es 5 Mio sein, 18 Mio sind auf Ende 2012 erwartet. HathiTrust umfasst die digitalisierten Bestände, welche die Bibliotheken zum Teil in Zusammenarbeit mit Google digitalisiert haben und umfasst unter zahlreichen anderen Unternehmen JSTOR und die Humanities Text Initiative der University of Michigan. Last not Least: HathiTrust ist ausschliesslich von den teilnehmenden Bibliotheken finanziert.

Und hier gibt es einen Podcast zum Thema: The Hathi Trust and „The Silence of the Archive“ – ein Interview mit John Price Wilkin, Executive Director, Hathi Trust.

«Ich hatte (bald?) einen Wikipedia-Artikel»

Wie fühlt es sich an, wenn man mitgeteilt bekommt, dass in Wikipedia ein Artikel über einen erschienen ist – gefolgt von der Ankündigung, er sei zur Löschung beantragt, weil der Inhalt nicht relevant genug für einen Wikipedia-Eintrag sei?

Darüber berichtet der Journalist Daniel Terdiman (Link zu vielleicht schon gelöschtem Artikel bei Wikipedia) in einem Artikel bei CNet. Darin las ich auch erstmals vom „Professor-Test“, den die Wikipedia-Administratoren offenbar anwenden, um die „Bedeutsamkeit“ einer Person zu beurteilen, über die ein biographischer Artikel in Wikipedia erscheint: Wer bekannter ist als ein „durchschnittlicher College-Professor“ hat Chancen, dass der Eintrag stehen bleibt. Wie die Bekanntheit gemessen wird? Genau: Anzahl Hits bei Google oder Yahoo. Daniel Terdiman hatte 105.000 bzw. 126.000 Hits vorzuweisen. Ich: naja…. 13.100…

Stellt sich die Frage: Ist man wer, wenn man nicht bei Wikipedia vorkommt? Und: was ist man, wenn man mal bei Wikipedia vorkam? Da passt doch der Song bestens: „Ich habe keinen Eintrag bei Wikipedia, drum frag‘ ich mich manchmal, bin ich wirklich da?“ (mp3, 2MB, von Mr. Renz, einem bekennenden Fussball-Fan von Dynamo Dresden – von der sprachlichen und musikalischen Qualität durchaus passend zum Thema). Immerhin: es gibt auch andere Songs zu Wikipedia: Hotel Wikipedia (nach Eagles) zum Beispiel, oder Wikipedian Rhapsody (nach Queen) oder We Will Block You (auch nach Queen, mit Warnung „Dies ist ein Scherz“…).

iPhone: Hype oder Vision? (Update)

Gestern stellte Apple das iPhone vor: Steve Jobs Idee von „Mobile communicating for the rest of us“. So what – Selbstdarstellung eines notorischen Techno-Egomanen! Oder doch Ankunft eines neuen Paradigmas der mobilen, allgegenwärtigen Kommunikation?

Schwer zu sagen, solange das Gerät nur in (allerdings anregenden) Flash-Filmchen betrachtet werden kann. Bemerkenswert ist einerseits der konsequente Verzicht auf jegliche Tasten: das Gerät wird ausschliesslich über den berührungsempfindlichen Bildschirm gesteuert. Die Navigation erscheint intuitiv, aber wie praxistauglich ist die virtuelle Tastatur für Texteingabe? Weiterlesen

HOK Lesen: Suchen und Finden: Literaturverwaltung und Web-Integration

Am Montag war ich an eine Diskussion über zukünftige Features des Literatur-Verwaltungsprogramms Lit-Link (das noch einiges mehr als Literatur-Verwaltung beherrscht) eingeladen. Dabei ging es unter anderem auch um die Frage, in welche Arbeitsumgebung die Literaturverwaltung eingebunden werden soll:

  • in ein Textverarbeitungsprogramm (à la EndNote – meiner Ansicht ein Ansatz aus der Vor-Web-Ära)
  • in einen Browser (also webbasiert – ein aktueller Ansatz des web 2.0)
  • in einer Literatur-Verwaltungssoftware (die als Schnittstelle agiert)

Jeder beantwortet diese Frage gemäss seinen Arbeitsgewohnheiten und -überzeugungen wohl anders. Feststeht jedenfalls, dass alle drei Lösungsvarianten sich aufeinander zu bewegen, dass mit anderen Worten Import- und Exportschnittstellen wichtig werden.

Wie viel da an Integration schon geboten wird, zeigen zwei kleine Beispiele. Zotero habe ich hier schon kurz vorgestellt, mich damals aber über mangelnde Zeit beklagt, das Ding zu testen, Prompt habe ich ein wesentliches Merkmal übersehen. Zotero ist ein FireFox-Plugin, das auf einer Website automatisch erkennt und mit einem Symbol (1) anzeigt, ob Daten vorliegen (2), die in die Literatur-Verwaltung übernommen werden können (3). Ein Klick, und die Daten sind in der Zotero-Datenbank.

Ähnliches leistet das Firefox Plugin XML-Dump (hier die Installations-Seite bei Litlink), das mit Lit-Link zusammenarbeitet – aber auch für andere Literatur-Verwaltungslösungen geeignet ist, da es das Austausch-Format XML produziert. Das XML-Dump-Plugin stöbert ebenfalls auf Knopfdruck (1) in der angezeigten Web-Seite Informationen auf, die auf eine bibliographische Angabe hinweisen, und bereitet diese als XML auf (2) und legt diese an einen frei wählbaren Ort ab.


In den Einstellungen kann auch spezifiziert werden, welche Angaben im Text wie interpretiert werden soll.


Auch die (Windows only-)Literaturverwaltung citavi bietet eine solche Web-Integration, die aber anders funktioniert: hier werden markierte Daten extrahiert, bzw. in bestimmten Literatur-Datenbanken abgefragt und die dort gelieferten Ergebnisse in die Datenbank aufgenommen.

Was fehlt? Eine Literaturverwaltung nur auf dem Netz? Gibt es auch: zum Beispiel Bibsonomy (auch schon hier kurz erwähnt), das stark an den Social Bookmark-Dienst de.licio.us erinnert (von wo auch Einträge samt Tags importiert werden können, habe ich mal gemacht). Dort können auch Literaturangaben erfasst und ge-„taggt“ werden. Auch Import und Export in verschiedenen Formaten sind möglich; so habe ich Zotero-Einträge im BibTex-Format exportiert und in Bibsonomy eingelesen.

P.S.: natürlich gibt es noch weitere gute und sinnvolle Literatur-Verwaltungsprogramme. Wer will, darf seine Favoriten in die Kommentare schreiben.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Bildungs-Suchmaschine dank neuer Google-Schnittstelle

Eine Schnittstelle zu den Suchmaschinen-Ergebnissen, die Google neuerdings zur Verfügung stellt, lässt nicht nur den Einbau von Google-Suchergebnissen in die eigene Website zu (das ist schon länger möglich), sondern lässt auch Einschränkungen zu, von welchen Websites Treffer berücksichtigt werden sollen. Das hat nun Bildungs-Suche.de gleich in eine Bildungs-Suchmaschine umgesetzt, in der ausgewählte Websites zu Bildungsfragen in der Suche berücksichtigt werden. Leider fehlt eine Dokumentation, welche Websites dies sind, und warum gerade diese Auswahl getroffen wurde. Allerdings regt dieses Praxisbeispiel auch die Phantasie an: Wer programmiert als Erster eine „Geschichts-Suchmaschine“?

Via Beats Blog

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Anleitung zum Recherchieren

Martin Meyer von der Universitätsbibliothek Freiburg weist mich auf ein Buch mit dem Titel „The Information-Literate Historian“ hin, soeben erschienen in der Oxford University Press. Er wünscht sich eine deutsche Übersetzung. Bis dahin kann, wer will, sich mit der soeben erschienenen Buchversion von Geschichte Online an der Universität Wien behelfen (siehe unten „Literatur“).
Die interessierte Leserin/der interessierte Leser kann sich auch an den Blog-Eintrag zu Informationskompetenz oder jenen zu den geschichtswissenschaftlichen Orientierungshilfen halten.

Literatur:

  • Presnell, Jenny L.: The Information-Literate Historian. A Guide to Research for History Students, New York, Oxford: Oxford University Press 2006.
  • Eder, Franz X.; Berger, Heinrich; Casutt-Schneeberger, Julia; Tantner, Anton (Hg.): Geschichte Online. Einführung in das wissenschaftliche Arbeiten, Wien: Böhlau (UTB) 2006.

Übersicht HOK Lesen. Suchen und Finden

HOK Reden: Kompetenz-Entwicklung dank Computerspielen

Ich erinnere mich an eine Karikatur von Gary Larson, die ich vor etwa 20 Jahren mal gesehen habe. Darauf war ein Junge im Primarschulalter zu sehen, vertieft ins Spiel mit einem Gameboy (damals noch piepsig und pixelig). Dahinter die selig strahlenden Eltern, deren Zuversicht auf eine rosige Zukunft für ihren Jungen mit Ausschnitten von Stelleninseraten illustriert wurden, in denen nach einem „Gameboy Senior Consultant“ oder einem „Gameboy Expert – with at least 100 000 h game experience“ usw. gesucht wurde.

Was damals ein amüsiertes Lächeln erzeugte (Gameboy spielen erschien mir humanistischem Zögling etwas dermassen Unnützes und Lebensfremdes) – holt mich nun in einer Meldung bei Heise ein: „Der Arbeitsmarkt in der Wissensgesellschaft verlangt die Fähigkeiten von Computerspielern„. Darin heisst es unter anderem:

Computerspiele hätten, so der Bericht, viele Eigenschaften, die den Spielern „höhere Lernfähigkeiten“ beibringen, wie sie in der modernen Arbeitswelt gebraucht werden. Genannt werden strategisches Denken, interpretierende Analyse, Problemlösung, Planformulierung und –ausführung oder Anpassung an schnellen Wechsel. Die Computerspielhersteller hätten instinktiv viele der „gemeinsamen Axiome lernender Wissenschaftler“ eingebaut, um den Spielern zu ermöglichen, die für die erfolgreiche Bewältigung des Spiels erforderlichen Fähigkeiten zu erwerben. Zudem ließen sich mit Spielen praktische Fertigkeiten, das Treffen von komplexen Entscheidungen in schwierigen Situationen, der Zugang von Experten zu Problemen oder das Bilden von Teams trainieren.

Da möchte ich doch schier in kulturkritische Jammern ausbrechen und im anklagenden Ton fragen, ob denn das Buch nichts mehr gilt?? Die Unterweisung durch Menschen aus Fleisch und Blut??

Aber vielleicht sind solche Meldungen einfach Wasserscheiden. Indikatoren in langsamen Prozessen, die uns plötzlich vor Augen führen, dass der Wandel Formen angenommen und Ergebnisse gezeitigt hat, die wir uns vor gar nicht allzulanger Zeit nicht vorstellen konnten.

Ausserdem: Auch die Recherche nach einem Fachartikel oder bibliographischen Informationen hat zuweilen etwas von einem Computerspiel. Wer erinnert sich an die Szene im Trivial-Verschwörungs-Thriller „Sakrileg“ von Dan Brown: da sucht Held Langdon am Computer nach Fachliteratur, die ihm helfen soll, das Komplott aufzudecken, die kryptischen Informationen zu entschlüsseln und die rätselhaften Hindernisse zu überwinden. Für diese Abfrage am Computer geht er – in eine Bibliothek. Na gut. In dieser Hinsicht ist wohl selbst Dan Brown etwas altmodisch. Aber die Bibliothek macht als Kulisse einfach etwas mehr her, als ein anonymes Büro oder ein unaufgeräumter Schreibtisch zuhause.

Übersicht: HOK Reden

HOK Reden: Rahmen-Theorien

Anlässlich einer Einladung ans Georg-Eckert-Institut Anfang dieser Woche kam mir der Begriff der „Rahmung“ unter. Gerdien Jonker plant den Aufbau einer Website, die wissenschaftliche Forschungsergebnisse zum Alltag in islamischen Ländern für die Verwendung in der Schule aufbereiten soll. Hier stellte sich die Frage, wie als heikle empfundene Inhalte sinnvoll auf der Website präsentiert werden können und sollen. Sind gewisse Inhalte und Verweise (etwa zu „radikalen“ Islamisten – aber eben: wer definiert hier „radikal“?) möglich, sinnvoll, erlaubt? Und (weniger inhaltlich aufgeladen), wie können und sollen Links zu verschiedenen medialen Formaten (Fernsehausschnitte, Tondateien, Bilder) behandelt, eingebettet, eben: „gerahmt“ werden?

Mich faszinierte der Begriff des „Rahmen“. Ein Wesenszug der neuen Informationstechnologien wie das Internet scheint mir ja, dass Rahmen gesprengt werden: gerade im schulischen Bereich. Früher gab es wohl die Möglichkeit (aber vielleicht ist das auch nur eine Rückprojektion?), den Rahmen des Unterrichts im klar umrissenen Setting des Schulzimmers zu kontrollieren. Aber auf einer Website? Zwei Klicks bzw. eine Google-Suche, und die Besucher/innen sind unter Umständen genau da gelandet, wo man sie nicht hinführen wollte.

Wenn die Lehrpersonen keinen Einfluss darauf mehr hat, wie die Inhalte zu den Schüler/innen kommen (wobei das gerade im Bereich der Geschichte ohnehin schon immer eine Illusion war), sollte sie vielleicht versuchen, darauf Einfluss zu nehmen, wie die Schüler/innen zu den Inhalten kommen. Mit anderen Worten: Kompetenzen fördern.

Worauf ist bei der Planung, Erstellung und Betrieb eines solchen Website-Projekt zu achten? Meine wesentlichen Erkenntnisse versuchte ich mit fünf Punkten zusammenzufassen:

  • Transparenz: Klarheit darüber schaffen, wie die Inhalte auf einer Website zustandegekommen sind: Was sind die erkenntnisleitenden Fragestellungen, die Interessen, die Methoden, der Kontext, die verwendeten Quellen? Das ist für Wissenschaftler wohl leicht einsehbar – auf Websites aber bei weitem noch nicht Standard.
  • Authentizität: Glaubwürdigkeit ist im vergleichsweise anonymen Umfeld des Internets ein wichtiges Kriterium, und diese speist sich bei der Zielgruppe Schüler/innen und Lehrpersonen vermutlich weniger aus der wissenschaftlichen Fundierung, als aus der Lebensnähe und Personalisierung der Informationen. Die Lebensnähe bezieht sich dabei sowohl auf die Seite des „Senders“ (jene Personen, die über sich erzählen) als auch des „Empfängers“ (Personen, die die Informationen aufnehmen).
  • De-Formalisierung: Ein Kunst-Wort, um den stärker informellen Charakter des Suchens, Aufnehmens und Verarbeitens von Informationen zum umschreiben. Nicht nur ist das Internet ein kaum strukturierter Fundus an unendliche vielen und vielfältig scheinenden Informationen: Das Internet (wie auch mobile Textnachrichten SMS) pflegt eine stärker an mündlicher Umgang orientierten Umgang mit Inhalten. Das gilt auch für die Kommunikation zwischen Personen.
  • Kompetenzen: Eine Website kann zwar keine Kompetenzen bei den Nutzer/innen herstellen („bitte klicken Sie auf den nebenstehenden Button, um die selbstentpackende Medienkompetenz-Datei herunterzuladen“) – sie kann diese Kompetenzen aber in Konzept und Konkretisierung berücksichtigen, diese benennen und offenlegen oder gar gezielt fördern und schulen (mit geeigneten Inhalten).
  • Werte: Die oben genannten vier Punkte basieren auf Werten, von denen wir nicht nur nicht mehr annehmen können, dass sie von allen Nutzer/innen geteilt werden, sondern von denen wir sogar annehmen müssen, dass sie nicht einmal mehr alle Nutzer/innen kennen. Folglich kommt dem Value Statement bei der Konzeption und bei der Ausführung besondere Bedeutung zu – gerade bei Websites, die sich mit strittigen Themen interkultureller Begegnung auseinandersetzen und „andere“, „neutrale“ oder „objektive“ Inhalte präsentieren wollen.

Noch einmal zum Rahmen: Mich beschäftigte das offensichtliche Dilemma zwischen dem offen angelegten Medium Internet (mit dem Leitsatz „jeder kann machen was er will – und muss selber wissen, was er erträgt oder lieber vermeiden will“) und dem verantwortungsorientierten System „Schule“ (mit dem Leitsatz „wir müssen gerade stehen für die Dinge, die in unserer Institution passieren“). Da Lehrpersonen oft zum Schluss kommen, dass ihre Schüler/innen nicht verwantwortungsvoll zu handeln bereit oder fähig sind, bleibt nur der Griff zum Filter: ungewünschte Internet-Inhalte werden aus der Schule ausgeblockt. Sei es Rechtsextremismus, Gewaltverherrlichung, Porno: was dem Strafrecht oder dem Jugendschutz untersteht, mag für die Jugendlichen ausserhalb der Schule leicht erreichbar sein – in der Schule darf es das aber nicht, denn Ärger (im Minimum) wäre das vorprogrammiert.

So gesehen wundert mich auch die Neigung zu „geschützten“ Lernmanagement-Umgebungen nicht, wie sie Beat Döbeli beschreibt (vgl. auch Stuff and Stir): hier lässt sich ein passwort-geschütztes, kontrolliertes virtuelles Ersatz-Klassenzimmer erstellen. Das löst zwar die Probleme der „unkontrollierbaren Inhalte“ auf dem Netz nicht – schafft aber eine gewisse psychologische Sicherheit.

Übersicht: HOK Reden

HOK Lesen: Suchen und Finden und Archivieren von digitalisierten Dokumenten

Gefunden beim Recherche-Blog: ein Hinweis auf das Zentrale Verzeichnis Digitalisierter Drucke (zvdd), das dabei helfen soll (und kann), die zahlreichen, über verschiedene Anbieter verstreuten Dokumente aus den zahlreichen Digitalisierungsprojekten aufzufinden. Mit dabei: Links zu Nestor, dem Kompetenznetzwerk für Langzeitarchivierung, und einem Artikel über die Problematik der Archivierung digitaler Daten. Das Problem wird noch verschärft, da neuerdings (auch ein Hinweis beim Recherche-Blog) in Deutschland auch Websites an die Nationalbibliothek abgeliefert werden müssen.

HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Ich bin nur eine Maschine!

Eine interessante Mitteilung bei Heise:
Die Suchmaschinen-Betreiber verlangen eine Änderung der gesetzlichen Grundlagen für ihre Dienstleistung, denn:

„Suchmaschinen werden in einem zunehmenden Maße mit der Entscheidung in Anspruch genommen, ob einzelner Inhalte im Internet auffindbar und zugänglich sein sollten oder nicht“, monieren die Anbieter. Sie sähen sich dabei angesichts der sehr weitgehenden zivilrechtlichen (Störer-) Haftung dazu gezwungen, bereits von der Mitteilung einer rein behaupteten Rechtsverletzung einzelne Suchtreffer aus ihren Ergebnislisten zu löschen. Diese Situation machten sich „zahlreiche Akteure“ durch bewusstes Abmahnen missliebiger Inhalte etwa von Konkurrenten zunutze. Die Praxis zeige, dass hinter den angeblichen Rechtsverstößen häufig seriöse und vollkommen legale Inhalte steckten.

Daraus folgt:

„Auf Verdacht“ hin vorgenommene Maßnahmen von Suchmaschinen stellten auch einen „starken Eingriff“ in die grundgesetzlich geschützten Informationsinteressen der Nutzer dar.

Mit anderen Worten: Manipulationen der Suchmaschinen-Indices (also der in Datenbanken abgelegten Verweise auf Websites, die als Ergebnisse bei Suchanfragen ausgewiesen werden) sind an der Tagesordnung.

Soweit so gut. Eine Änderung der Rechtslage weg von einer „vorauseilenden Gehorsams-Zensur“ wäre wohl wünschenswert; obwohl unklar bleibt, wie gross der Schaden sein könnte, der durch die Verzögerungen entsteht, wenn illegale Inhalte erst nachträglich, auf Antrag und womöglich mit richterlicher Anordnung gelöscht werden können.

Erstaunlich finde ich die Argumentation der Suchmaschinen-Betreiber. Suchmaschinen böten…

(…) wie Zugangs- oder Hostprovider keinen eigenen Content an, sondern machten Inhalte Dritter auf „Milliarden unterschiedlicher und sich permanent verändernder Webseiten“ ausfindig, indexierten sie und verschafften dem Nutzer Zugang dazu.
„Suchmaschinen im eigentlichen Sinne sind keine redaktionell gestalteten Link-Kataloge“, heißt es in dem Positionspapier, das AOL, Google, Lycos, MSN, T-Info, T-Online und Yahoo gemeinsam verfasst haben. Die unüberschaubare Anzahl an Informationen im Internet könne auch gar nicht auf der Basis persönlicher Prüfung und Zusammenstellung der Suchergebnisse strukturiert werden, wehren sich die Anbieter vor einer Haftung für die von ihnen gelisteten Online-Materialien. Nur technische und „voll automatisierte Suchverfahren“ könnten zum Einsatz kommen, weshalb die Betreiber sich auch „zwangsläufig“ als „rein technische Infrastrukturdienstleister“ sehen. (Hervorhebungen durch jh)

Da kann ich nur sagen: „Ich bin nur eine Maschine!“ Aber warum bloss verkaufen die Suchmaschinen massenweise Werbung auf ihren Seiten? Hier wird doch ein klarer Mehrwert angeboten, der nicht nur mit „rein technischer Infrastruktur“ zu umschreiben ist. Maschinell ist ja lediglich die Ausführung des intellektuellen Ansatzes, die Ergebnisse zu sammeln, auszuwerten, zu gewichten und sortiert auszugeben (Stichwort „PageRank“).

Hier machen es sich die Suchmaschinen-Betreiber meiner Ansicht nach zu einfach. Sie sind mehr als reine technische Dienstleister, sondern zentrale Aggregatoren von Inhalten und recht eigentliche „Gatekeeper“. Dass keine inhaltlichen, sondern „nur“ ökonomische Interessen handlungsleitend sind, mag ein Trost sein. Die Suchmaschinenbetreiber wollen keine Inhalte ausschliessen, weil es nicht im Interesse des Nutzer liegt und folglich dem Geschäft schadet – das klingt einleuchtend. Aber wie können wir sicher sein, dass sie auch wirklich keine Inhalte ausschliessen oder sonstwie manipulieren? Und: ist es wirklich in jedem Fall im Interesse der Nutzer/innen, dass Inhalte nicht ausgeschlossen werden? Oder gibt es hier nicht eher doch konkurrierende Interessen?

Übersicht HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Google News II

Bei Google passiert so viel, dass ich nur mit Sammeleinträgen hinterherkomme (und auch nur mit Hinweisen auf die für mich relevantesten Aspekte):

  • Google News bietet nun auch Suchen im Archiv verschiedener Zeitungen, etwa des Wall Street Journal, der New York Times oder der Washington Post. Recherche-Blog zeigt das am Beispiel von Jimmy Carter. Auch die Darstellunge einer Zeitleiste (allerdings nicht in der in einem früheren Eintrag besprochenen grafischen Form) ist möglich.
  • Ein weiterer Hinweis via Recherche-Blog: Google Scholar bietet bei der Suche nach wissenschaftlichen Artikeln auch die Option, nach „ähnlichen/verwandten“ Einträgen zu suchen („related articles“).
  • Nochmals via Recherche-Blog: Hinweise zum Thema Klickbetrug, das ich hier auch schon thematisiert habe. Interessante Links finden sich auch in den Kommentaren.
  • Google Books bietet nun erste Bücher zum (Gratis-)-Download an, zumeist ältere Bücher aus US-amerikanischen Bibliotheken, auf die keine urheberrechtlichen Ansprüche mehr bestehen.
  • Google führt den „Image Labeler“ ein: ein Spiel, bei welchem die Spieler Bilder aus dem Fundus der Google-Datenbank mit treffenden Stichworten versehen. Absicht: Google verbessert die Stichwort-Suche nach Bildern. Kommentar von Heise: „Google Image Labeler führt das so genannte Folksonomy-Prinzip des Web 2.0 auf perfide Weise weiter. Bei anderen Projekten, bei denen die Benutzer eine Datenbasis gemeinschaftlich indexieren, haben sie direkten Nutzen davon. Bei sozialen Bookmarking-Diensten zum Beispiel finden sie im gemeinsamen Datenbestand ähnliche Seiten, wenn sie ihre Bookmarks mit Labeln versehen. Beim Image Labeler „profitieren“ sie nur in Form des Punktestands; die Nutzzung der von fleißigen Spielern angelegten Bilderindexes bleibt Google vorbehalten“ (vgl. auch meinen früheren Eintrag zu „Tagging„).

Übersicht: HOK Lesen Suchen und Finden

HOK Lesen: Suchen und Finden: Das unsichtbare Web (Nachtrag)

Wer sich nicht durch den englischen, fachwissenschaftlichen Text von Landowski und Mayr zum unsichtbaren Web mühen mag, hat auch die Möglichkeit, sich das Feature „Was die Suchmaschine nicht findet“ des Deutschlandradios (dr) zu Gemüte zu führen (schriftlich oder als Audio-Datei). Zitat:

Google hat in vielen Köpfen die Illusion festgesetzt, mit der simplen Eingabe eines Stichwortes könne man die Weisheit der Welt aus dem Internet saugen. Das unsichtbare Netz zeigt, dass die Dinge komplizierter liegen, auch die beste Suchsoftware kann nicht Erfahrungswissen und Fingerspitzengefühl bei der Recherche ersetzen. Letztlich ist die elektronische Welt des Internets, ob sichtbar oder unsichtbar, auch nicht so viel anders als die wirkliche Welt: Sich darin zu orientieren ist eine Lebensaufgabe.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Meta-Suchmaschine Kartoo visualisiert Ergebnisse

Die Meta-Suchmaschien Kartoo fasst, wie andere Suchmaschinen auch, die gefundenen Seiten zu einer Abfrage in Gruppen zusammen. Kartoo zeigt diese „Begriffsgruppen“ unter dem verbindenden ergänzenden Stichwort in einem Ordner, ähnlich dem Finder/Explorer auf dem Desktop. Ausserdem zeigt Kartoo diese so genannten Such-Cluster auch als „Begriffs-Karte“ mit Verbindungen zwischen den Clustern und einer Darstellungsgrösse, welche die Relevanz dieses Clusters für die Suchabfrage darstellen soll. Anbei ist das Ergebnis für die Suche nach „Historische Online Kompetenz“ zu sehen (Klick führt zu Kartoo).

Ich finde vor allem das Konzept interessant (weniger die konkrete Nutzung): es zeigt die Verlagerung zu neuen Formen, wie in Zukunft die Navigation im Web stärker visuell geprägt sein wird – ähnlich wie die Backup-Software Time-Machine.
(via Rechercheblog)

Übersicht: HOK Lesen: Suchen und Finden