2009-12-19

Freie Metadaten - (k)ein Thema für den Bibliothekskongress

Dieser Beitrag von Anne Christensen, Patrick Danowski und Adrian Pohl wurde zeitgleich auf den Blogs netbib, Bibliothek 2.0 und mehr und Übertext veröffentlicht.

Katalogdaten sind zweifellos gefragter denn je - nicht nur für Zwecke der Fremddatenübernahme bei der Katalogisierung, sondern auch im Web 2.0, von Sozialen Katalogisierungsanwendungen wie LibraryThing und Open Library. Darüberhinaus gewinnen mit dem unaufhaltsamen Fortschritt von Linked Data, der dieses Jahr seinen bisherigen Höhepunkt erreicht hat, Katalogdaten in einem weiteren Anwendungsbereich an Bedeutung. Die Verlinkung freier Daten (Linked Open Data) bietet uns die Möglichkeit, das Wissen, was in den Titel- und Normdaten enthalten ist, abzuschöpfen und durch die Verknüpfung mit anderen - nichtbibliothekarischen - Wissensressourcen seine Nutzungsmöglichkeiten zu maximieren.

Kommerz mit Metadaten

Parallel zu dieser Entwicklung des Internet zum Linked-Data-Web und der Aussicht auf ganz neue Möglichkeiten der Recherche und Wissensgewinnung entwickelt sich aber auch die kommerzielle Nutzung von Metadaten in ganz neue Dimensionen. OCLC, das etwa ein Drittel seines Umsatzes mit dem Verkauf von anderen produzierter Katalogdaten macht, versuchte mit einer neuen Metadaten-Policy - unter Umgehung der Mitgliederbasis und der bibliothekarischen Gemeinschaft, die das Vorhaben schließlich zu Fall brachten -, sein Monopol auf die Katalogdaten der Mitgliedsbibliotheken juristisch zu zementieren. Organisationen wie EBSCO und Serials Solutions  versuchen mit ihren neuen Produkten EBSCO Discovery Service und Summon eine Menge Geld im Bereich Aggregierung und Verkauf von Metadaten und dazugehörigen Suchoberflächen zu verdienen.

Open Access: ja, Open Data: ja, Open Bibliographic Data: nein

Vor diesem Hintergrund ist es verwunderlich, dass die deutschsprachigen Bibliotheken und Bibliotheksverbünde sich bisher kaum mit neuen Nutzungsmöglichkeiten ihrer bibliographischen Daten auseinandergesetzt haben. Adrian Pohl stellte zwar am Ende seiner Dokumentation der OCLC-Metadaten-Kontroverse bereits u.a diese Frage für die deutschsprachige Bibliothekswelt:

"Wie stehen deutsche Bibliotheken im Allgemeinen zu einem Urheberrecht auf bibliografische Metadaten und zu einer Einschränkung des Zugangs auf diese Daten? Wie zum freien Zugang und zur kostenlosen Verbreitung von Metadaten?" (S.288)

Über Problemstellungen wurde aber bisher selten geredet und an die Öffnung und Verfügbarmachung der mit öffentlichen Mitteln produzierten bibliothekarischen Daten wird kaum ein Gedanke verschwendet. Zur gleichen Zeit wird die Bibliothekswelt nicht müde als ein wichtiger Pfeiler der Open-Access-Bewegung lautstark von anderen, nämlich Wissenschaftlern, die Freigabe ihrer Arbeitsprodukte, sowohl von Publikationen also auch von Rohdaten, zu fordern.

Es tut sich was...

Es sind aber erste Entwicklungen hin zur Freigabe bibliographischer Daten auszumachen: Im Strategieentwurf des Gemeinsamen Bibliotheksverbund (GBV) vom August dieses Jahres ist die Entwicklung einer Lizenz zur Freigabe der Verbunddaten festgehalten, auch das Hochschulbibliothekszentrum Nordrhein-Westfalen (hbz) unterstützt die Freigabe von Katalogdaten und Patrick Danowski hat - wie im Übertext berichtet - auf der Tagung "Semantic Web für Bibliotheken" angekündigt, dass die CERN Library ihre Daten öffnen werde. (Leider hat sich der angekündigte Termin auf Januar 2010 verschoben)

...aber: Zwei Open-Data-Vorträge abgelehnt

Dass das Thema - auch im Bibliothekswesen - an Bedeutung gewinnt, ist also klar. Dies zeigte sich auch daran, dass mindestens zwei Vortragsvorschläge dazu - von den Autoren und der Autorin dieses Beitrags - für den Bibliothekskongress 2010 eingereicht worden sind. (Die beiden Abstracts sind am Ende dieses Textes dokumentiert.) Leider entschied die Programmkommission (deren Zusammensetzung nicht transparent im Internet dokumentiert ist), dass dem Thema "Freie bibliographische Daten" auf dem Bibliothekskongress kein Forum geboten werde. Beide Vorträge wurden abgelehnt. Insgesamt ist das Auswahlverfahren für den Bibliothekartag wie Bibliothekskongress wenig transparent.

Nachdem die erwähnte Tagung "Semantic Web in Bibliotheken" vom hbz und der ZBW im November 2009 innerhalb von kürzester Zeit ausgebucht war, ist es umso bedauerlicher, dass dem offensichtlichen Interesse von Kolleginnen und Kollege an dieser Thematik in dem Leipziger Programm anscheinend nicht Rechnung getragen wurde. Bibliotheken haben mit Open Data die Chance, sich als Erzeugerinnen und Anbieterinnen von qualitativ hochwertigen, webfähigen Daten zu profilieren. BID Deutschland, die Bundesvereinigung Deutscher Bibliotheksverbände, als Veranstalterin des Leipziger Kongresses versäumt damit den eigenen Anspruch, "zeitgemäße Informationsdienstleistungen als Voraussetzung für die Entwicklung von international konkurrenzfähigen Produkten zur Verfügung zu stellen".

Gespannt erwarten wir das Programm, um zu sehen welche Themen BID Deutschland für wichtig und innovativ hält.


Dokumentation der eingereichten Abstracts:

Freie Metadaten
Referenten: Anne Christensen (SUB Hamburg), Adrian Pohl (hbz)

ABSTRACT
Open Source und Open Access sind mittlerweile im öffentlichen und bibliothekarischen Diskurs fest verankerte Begriffe. In den letzten Jahren wird zunehmend auch über Open Data diskutiert – seien die freien Daten, um die es dabei geht, wissenschaftliche, statistische, administrative Daten oder eben Metadaten.
Dieser Vortrag dient als Einführung in das Thema "Freie Metadaten" und beantwortet Fragen wie: Was heißt frei? Um welche Daten geht es? Warum sollen Daten frei sein? Behandelt werden der Hintergrund der Bestrebungen nach freien Metadaten, ihre Geschichte, die dahinterstehenden Motivationen und Ziele. Besondere Berücksichtigung findet dabei die Veröffentlichung von bibliografischen Daten und Normdaten als Open Linked Data.
Zudem werden Vorhaben zur Freisetzung der bibliografischen Metadaten im deutschsprachigen Raum betrachtet und es wird auf Fragen der Umsetzung eingegangen: Welche Lizenz soll ich wählen? Bin ich rechtlich befugt, alle Daten in meinem Katalog freizugeben? In welchem Format publiziere ich meine Daten?

Aus dem Silo ins Semantic Web: Bibliographische Daten als Linked Data Publizieren

P. Danowski

CERN Scientific Information Service, 1211 Geneve, Schweiz

Inhalt

Tim Barners Lee hat den Begriff Linked Data fuer eine Methode beschrieben mit der Daten veroeffentlich, geteilt und verbunden werden. Dabei sollen die Daten mit URL basirten Identifiern erreichbar sein und andere Daten im Netz referenzieren (verlinken).[1] Inzwischen wurde eine Vielzahl von Daten mit dieser Methode publiziert.[2]

Spaetestens seit dem letzten Jahr sind auch Bibliotheken auf dieses Thema aufmerksam geworden und beginnen ihrer Ressourcen in dieses Netz von Daten einzubringen. In dem Vortrag wird gezeigt, wie sich bibliographsche Daten als Linked Data publizieren lassen.

Dabei soll darauf eingegangen werden welche Frage zu klaeren sind. Dies sind unter anderen:

- Die Wahl einen Formats (einer Ontology)

- Lizenzfragen

- Vertrauensfragen

Der gesammten Prozess soll anhand eines Projekt fuer die Katalog Daten der CERN Library veranschaulicht werden. Es soll auch beschrieben werden welche Probleme in dem Prozess aufgekommen sind und welche Loesungsmoeglichten hierfür entdeckt wurden.

Quellenangaben

[1] vgl. auch http://en.wikipedia.org/wiki/Linked_data

[2] Zu der Menge der Daten gibt es ein klickbares Diagramm in dem die Verbindung der verschieden Ressources erkennbar ist. http://www4.wiwiss.fu-berlin.de/bizer/pub/lod-datasets_2009-07-14.html

2009-11-26

Erst öffnen, dann linken!

Dienstag und Mittwoch fand in Köln das SWIB09 statt. Es war eine sehr interessante Veranstaltung, vor allem habe ich mich gefreut, einige Personen mal im realen Leben zu treffen, die ich bisher nur virtuell kannte. Hier geht es jetzt darum, einige Probleme, Fragen und Unklarheiten zu besprechen, die mir mehrmals aufgefallen sind. Den Anfang macht die Frage nach der Reihenfolge von Lizenzierung, Publizierung, Triplifizierung und Verlinkung von Daten. (Ich hoffe, Felix, der jetzt hier mitschreibt, setzt die Reihe fort.)

Linked Data & Open Data
Zwei verschiedene Ansätze, Bibliotheken in das Semantic Web zu bringen wurden während der Veranstaltung nur allzu deutlich.

Erster Ansatz
Hauptsache hochqualitative Daten in RDF, der Rest wird sich finden, so könnte man die Grundhaltung dieses Angangs beschreiben. Dieser erste Ansatz - der bisher zum Beispiel von der DNB verfolgt wird - scheint mir ein so naiver wie traditioneller zu sein. Er geht so: Wir tüfteln eine Technologie zur Umwandlung der bibliothekarischen Datenformate in RDF-Tripel aus, verwenden dabei am besten ein - bisher von sonst niemandem genutzes, weil noch nicht existierendes - RDA-Vokabular, veröffentlichen am Ende des langen Entwicklungsprozesses die konvertierten Daten und bieten die Möglichkeit der Suche (mit einem SPARQL-Endpoint) und Verlinkung zu unseren Daten an. Über Lizensierungsfragen und die vollständige Öffnung der gesamten Daten machen wir uns aber zunächst keine Gedanken.

Dieser Ansatz birgt zwei grundlegende Probleme:
Erstens wird mit einem RDA-Vokabular auf bibliothekarische Standards gesetzt, die noch nicht fertiggestellt sind und dementsprechend auch keine Verbreitung in nicht-bibliothekarischen Bereichen gefunden haben. Ein solcher Weg birgt die Gefahr ein neues Silo mit Katalogdaten - diesmal im Semantic Web selbst - zu etablieren, denn: Die Nachnutzung bestehender Vokabulare ist gängige Praxis und sorgt dafür, dass Daten verlinkt und damit Linked Data geschaffen wird. Jakob Voß machte in seiner Präsentation über die Bibliographic Ontology (Bibo) deutlich, dass man an diesem Vokabular nicht mehr vorbeikommt, wenn man bibliographische Daten im Linked-Data-Netz veröffentlichen will. Die Bibo selbst berücksichtigt und inkorporiert ihrerseits bestehende De-Facto-Standards wie foaf und die DCMI Metadata Terms.
Eine Möglichkeit wäre es, bei der Entwicklung einer RDA-Ontologie bestehende Klassen und Prädikate aus Bibo, Dublin Core usw zu übernehmen. Allerdings weiß ich nicht, inwieweit dies getan wird.
Zweitens - und dies hat Patrick Danowski sehr schön in seiner Präsentation dargestellt - vernachlässigt dieser Ansatz eine grundlegende Frage, die beim Veröffentlichen von Linked Open Data eine wichtige Rolle spielt: Nämlich die Frage der Lizenzierung. Im letzten Übertext-Beitrag wird dies auch zweimal angesprochen: Der erste Schritt zu Linked-Open-Data sollte die Öffnung der Rohdaten sein. Tim Berners-Lee fasste dies in seinem bekannten TED-Talk in die Worte: Raw Data Now!

Welche Chancen verspielen Bibliotheken, wenn sie erst nach einer langen Planungs- und Entwicklungsphase eine ganzen Haufen triplifizierter bibliographischer Daten freigeben und welche Risiken birgt dieser Ansatz:

1. Aufwändige und schlechtere Konvertierung: Arbeitet eine Bibliothek oder ein Verbund alleine für sich an einer Konvertierung der Daten, so liegt die Arbeitslast und Verantwortung allein auf den Schultern dieser Institution. Veröffentlicht man aber im ersten Schritt die Rohdaten, so lassen sich Teile des Konvertierungsprozesses crowdsourcen, denn es gibt im Internet eine Menge Leute, die an Bibliotheksdaten interessiert sind. Flankiert durch ein offene Plattform zur Dokumentation und Diskussion des Konvertierungssprozesses bringt dieser Ansatz auch von Anfang an Feedback ein, so dass von vorneherein ein bestmögliches Ergebnis sichergestellt wird.

2. Verlinken nicht möglich: Der Ansatz, zunächst die bestehenden Daten einer Institution möglichst vollständig zu konvertieren und erst dann die URIs und internen Verknüpfungen zu veröffentlichen bedeutet, dass erst am Ende dieses Prozesses, wenn die Daten veröffentlicht sind, andere Personen oder Institutionen Verlinkungen mit diesen Daten herstellen können. Dies ist meiner Meinung nach unnötig, gerade weil die Standards eine iterative Publikation der Daten möglich machen und auch URIs alleine schon einen großen Wert haben. Ich fände es zum Beispiel sinnvoll, die PND- (oder GND-)URIs so früh wie möglich zu veröffentlichen, wenn auch nur mit minimalen Informationen (z.B. Ansetzungsform, Verweisungsform + Lebensdaten) versehen. Damit könnten diese URIs frühstmöglich verlinkt und mit anderen Daten in Beziehung gesetzt werden. Nach und nach könnten weitere RDF-Tripel angehängt werden, sobald die Konvertierungsfragen geklärt sind. (Jetzt könnte man einwenden, dass es die GND-URIs schon gibt. Gewissermaßen stimmt dies vielleicht, allerdings hätte die Pedantic Web Group daran einiges zu verbessern, vor allem, weil Personen und die sie beschreibenden Ressourcen dieselbe URI haben. Dieser Umstand schreckt auf jeden Fall vor einer Nutzung der URIs ab.)

Zweiter Ansatz: Open first, link later!
Der zweite Ansatz lässt sich am besten durch ein praktisches Beispiel erläutern, das der CERN Library. Diese Bibliothek nimmt ihren ehemalgien Kollegen Tim Berners-Lee beim Wort und wird - wie Patrick Danowski auf der SWIB09 ankündigte - ihre Daten diese Woche in die Public Domain stellen. Die Open Library und biblios.net werden die Daten übernehmen und verfügbar halten aber auch jedeR andere kann die Daten übernehmen und damit herumspielen.
Erst im zweiten Schritt sollen die Daten in RDF umgewandelt werden und Verlinkungen zu anderen Daten herstellt werden. Ich hoffe, dass dieser Konvertierungsprozess offen und transparent stattfinden wird und die verwendeten Programmiercodes offengelegt werden, so dass zum einen die CERN Library davon profitiert, weil sie den Input aus der Gemeinschaft bekommt und auch zum anderen die Bibliotheken und Verbünde, die dem Beispiel der CERN Library noch folgen werden.

2009-11-20

Workshop-Bericht: Open Data and the Semantic Web

Besser spät als nie - und dafür umso umfangreicher. Dieser Bericht wurde gemeinsam mit Felix Ostrowski verfasst. Unser Arbeitgeber, das hbz, hat uns freundlicherweise die Teilnahme am Workshop "Open Data and the Semantic Web" der Open Knowledge Foundation (OKFN) ermöglicht. So haben wir uns gemeinsam - beide in labilem gesundheitlichen Zustand - für ein langes Wochenende nach London aufgemacht und am Freitag dem 13. diesen Workshop besucht. Hier nun unser Bericht.

Rufus Pollock (OKFN): Einführung
Rufus Pollock von der Open Knowledge Foundation führte in den Tag ein und erläuterte das Konzept der Offenheit von Wissen anhand der Open Definition, die in Kurzform besagt:
A piece of knowledge is open if you are free to use, reuse, and redistribute it.
Gemäß der Open Definition darf Wissen den folgenden maximalen Einschränkungen unterliegen: share-alike (das heißt Veränderungen des Werks müssen unter der gleichen Lizenz weitergegeben werden) und attribution (Nennung des Urhebers). Somit sind etwa Creative-Commons-Lizenzen nach der Open Definition nicht notwendig offen. Dies gilt etwa für Lizenzen, die eine kommerzielle Nutzung verbieten

Zudem erläuterte Rufus Pollock CKAN (Comprehensive Knowledge Archive Network). Diese Registry gibt einen Überblick über bestehende Open-Data-Pakete und -Projekte. Zu jedem Paket/Projekt wird seine Kompatibilität mit der Open Definition anhand zweier grundlegender Eigenschaften angegeben: das Vorhandensein bzw. Nichtvorhandensein einer Lizenz sowie die Möglichkeit eines Downloads der Daten. CKAN stellt eine Lese- und Schreib-API bereit und ist in der Talis Connected Commons Platform als RDF verfügbar.

Leigh Dodds: Web Integrated Data
Leigh Dodds (Talis) machte deutlich, dass es bei Linked Open Data vor allem darum geht, den Nutzen bestehender strukturierter Daten zu maximieren. Der Weg zu dieser maximalen (Nach-)Nutzbarkeit erfolge in drei Schritten:
  1. Rohdaten veröffentlichen: Rohdaten heißt, die Daten werden unbearbeitet in Formaten wie CSV, XLS, PDF usw. publiziert. Sie sollten aber möglichst mit Metadaten, einer Dokumentation und Lizenz versehen werden.
  2. Webzugriff ermöglichen: Durch die Nutzung offener Webformate (XML, JSON etc.) und die Bereitstellung einer API wird ein direkter Webzugriff auf die Daten möglich.
  3. Vollständige Webintegration: Die Integration mit dem Web geschieht durch die Bereitstellung der Daten in RDF, einem webnativen Datenmodell. Dazu müssen Entitäten und Verknüpfungen zwischen diesen mittels URIs identifiziert werden.
Nach der Veröffentlichung heißt es: "Wait for great things to happen." Daten werden nachgenutzt und verlinkt und im Ergebnis entsteht das Linked-Data-Netz, ein menschen- und maschinenlesbares "Web of data".

Jordan Hatcher: Legal tools for Open Data
Die Techniker auf dem Workshop waren sich einig: Juristische Aspekte von Open Data sind langweilig aber leider sehr wichtig. Jordan Hatcher übernahm die Aufgabe, Probleme und Möglichkeiten der Lizenzierung von Daten kurz darzustellen.

Bis vor einiger Zeit gab es noch keine Lizenzen für Daten/Datenbanken. Für Software (Open Source) und intellektuelle Werke (Creative Commons) gibt es zwar schon länger Lösungen, diese lassen sich aber aufgrund der unterschiedlichen Rechtslage für Daten wie Datenbanken nicht übertragen.
Mittlerweile gibt es aber auch drei Lizenzen für Daten und Datenbanken:
Die Open Database License (ODbL) und die Public Domain Dedication and Licence (PDDL) sind auf Initiative des OKFN-Projekts Open Data Commons entstanden. Außerdem gibt es noch die mit der PDDL interoperable CC-0/CC-Zero (für die es allerdings noch keine deutsche Version gibt).
Während die OdBL Linzenzeinschränkungen wie Attribution und Share-alike erlaubt, ist es Ziel einer PDDL- oder CC-0-Lizenzierung, sämtliche Urheberrechtsansprüche (Vervielfältigungs-, Verwertungs- und Vertriebsrecht) aufzugeben und die Daten(bank) in die Public Domain zu stellen. ("Public Domain" ist kein deutscher Rechtsbegriff. Es ist vielleicht am ehesten mit Gemeinfreiheit gleichzusetzen.)

Jenni Tennison: Provenance in RDF
Jenni Tennison referierte über eine Kernfrage im Umgang mit Daten, die natürlich auch auf Linked Data zutrifft: "How do you know whether you can trust a piece of information?" (http://www.jenitennison.com/blog/node/133)

Klar ist, dass das Vertrauen in Daten umso gefestigter ist, je tiefer der Einblick in ihre Herkunft ist. Es geht also darum, eine Nachvollziehbarkeit der Entstehungsgeschichte von Daten herzustellen, um Vertrauen in diese Daten zu ermöglichen. Die Entstehung von Daten lässt sich beschreiben als das u.U. mehrmalige transformieren von Ausgangs- bzw. Rohdaten durch Prozesse, welche von Akteuren gesteuert werden.

Es gilt also, die Daten und die auf sie einwirkenden Prozesse transparent zu gestalten; dies wird durch "Open Data" und "Open SourceSoftware" gewährleistet. Tennison stellte zwei bestehende Ansätze vor, die dazu dienen, Provinienz-Information für RDF-Daten strukturiert (und ihrerseits in Form von RDF-Daten) formulieren zu können: Das Open Provenance Model und das Provenance Vocabulary. Sie machte deutlich, dass ersteres vereinfacht und das zweite (weil noch unfertig) mitentwickelt werden müsse, um für Linked-Data-Zwecke Anwendung zu finden.

Zuletzt verwies Tennison auf ein Ungleichgewicht, das man als "Linked-Data-Paradox" bezeichnen könnte: Linked-Data baut darauf auf, das alles einen Namen (in Form einer URI) hat. RDF-Tripel sind allerdings von Grund auf anonym und können momentan nur durch einen etwas schwergewichtigen Vorgang namens Reification (das heißt soviel wie "Verdinglichung", weil eine Aussage zu einer Entität ernannt wird (was sie eigentlich von vornherein sein sollte)) als Ressourcen referenzierbar gemacht werden. Da die Grundeinheit von RDF-Daten die einzelne Aussage ist, spielen auch Provenienz-Informationen auf dieser Ebene eine wichtige Rolle, sind aber momentan nicht bequem anzubringen.

Hugh Glaser: sameAs.org
Hugh Glaser stellte die von ihm ins Leben gerufene Webseite/Datenbank sameAs.org vor. Da Linked Data de facto das RDF-Datenmodell zu Grunde liegt, werden Entitäten ("Dinge in der echten Welt") über URIs referenziert. Da es (zum Glück) keine zentrale Vergabestelle für diese URIs gibt, ist es unvermeidbar, dass die selbe Entität von zwei (und meist noch viel mehr) verschiedenen URIs referenziert wird. Um das Zusammenführen von Beschreibungen eines Gegenstandes mit verschiedenen URIs zu ermöglichen, gibt es das OWL-Prädikat sameas, mit dem eben die Gleichheit der durch verschiedene URIs referenzierten Entität behauptet wird. Da dies eine sehr starke Behauptung ist, kann es zu unangenehmen Nebenwirkungen kommen. So hat etwa die New York Times beim Publizieren von RDF-Daten per owl:sameas auf URIs in DbPedia verwiesen und dadurch aus Versehen ihre Copyright-Bestimmungen auch auf die dort vorhandenen Daten ausgedehnt.

Um solche Probleme im Keim zu ersticken, ist Glasers Ansatz, die Aussagen über die Gleichheit der Referenz von URIs von den Aussagen über das Referenzierte zu trennen. Dafür hat er sameas.org implementiert, eine Datenbank, die ausschließlich Aussagen zur Kongruenz von URIs beinhaltet. Es wird damit möglich, auf diese Datenbank zu verweisen, anstatt Identitätsaussagen in den eigenen Daten treffen zu müssen. Dies hat auch den angenehmen Nebeneffekt, dass die Menge an Verweisen immer weiter wachsen kann, ohne dass das die eigenen Daten permanent aktualisiert werden müssen. sameAs.org unterscheidet sich von Diensten wie Okkam und Subj3ct, die dem Auffinden existierender URIs für bestimmte Entitäten dienen, eben genau darin, dass diese nicht dem Verweisen auf andere URIs dienen.

Eine Frage die sich aus der Perspektive der Bibliothekswelt aufdrängt, ist die, warum die URIs des VIAF bislang keine Berücksichtigung in der sameAs.org Datenbank gefunden haben. Dies mag daran liegen, dass der Nutzen von viaf.org bislang nahezu ausschließlich in der Bereitstellung von URIs für Personen liegt. (Zumindest waren wir bislang nicht in der Lage, dort Daten in irgendeiner RDF-Serialisierung zu finden). Sobald die URIs jedoch mit RDF beschrieben werden, könnten sie sich als enorm wertvoll herausstellen.

Lightning Talks

Hier ein kleiner Überblick über die gehaltenen Lightning Talks mit ein paar Links.

Mark Birbeck: RDFa & Government Data
Mit einem Ausschnitt aus dieser Präsentation bestritt Mark Birbeck seinen Lightning Talk über RDFa. Er exemplifizierte die Vorteile von RDFa am Beispiel der Anreicherung bestehender Webseiten mit Stellenangeboten in der öffentlichen Verwaltung, um diese harvesten zu können. Ohne die Publikationsworkflowa zu vereinheitlichen lassen sich verschiedene bestehende HTML-Webangebote mit einem einheitlichen Vokabular anreichern. Darauf aufbauend ist es schließlich ein Leichtes, zentralisierte Webangebote mit den gesammelten Stellenanzeigen bereitzustellen.

Rufus Pollock über CKAN
Rufus Pollock ging nochmal auf CKAN (s.o.) ein.

Jeni Tennison zu data.gov.uk
Jeni Tennison gab einen kurzen Einblick in die Baustelle data.gov.uk. Das britische Pendant zum US-amerikanischen data.gov hat ja mit Tim Berners-Lee den Erfinder des Semantic Web im Boot. Man darf gespannt sein, was dabei rauskommt, die öffentliche Beta-Phase soll im Dezember beginnen.

Ian Davis zum Data Incubator
Ian Davis (Talis) stellte das Freizeitprojekt einiger Talis-Mitarbeiter, den Data Incubator, vor. Dieser dient dem Zweck, Linked-Data-Praktiker zusammenzuführen, um große offene Datensätze in RDF zu konvertieren und diese Prozesse zu dokumentieren, indem etwa die verwendeten Programmcodes offen gelegt werden. Um diese Ziele zu erreichen wird ein Diskussionsforum bereitgestellt, Speicherkapazität in der Talis Platform sowie ein Google-Code-Repository.

Axel Rauschmayer: Social and Personal Linked Data
Axel Rauschmayer (LMU München) stellte sein Projekt Hyena vor, eine Mischung aus Wiki und Datenbank basierend auf RDF. Hyena kann sowohl offline, d.h. desktopbasiert, als auch webbasiert benutzt werden und verfügt über eine Synchronisierungsfunktion zwischen Web- und Desktopanwendung.

John Goodwin über Linked Data at Ordnance Survey
John Goodwin stellte die Ordnance-Survey-Linked-Data-Seite vor. Ordnance Survey ist die für Kartographierung zuständige britische Verwaltungsagentur. Die bisher vorhandenen Daten sind schon sehr informativ. Sie enthalten etwa Angaben über Regierungs- und Wahlbezirke und in welchem Verhältnis diese zueinander stehen. Genauere Geodaten über Grenzverläufe sind noch nicht vorhanden, weil ein Mapping in RDF offensichtlich nicht sehr leicht ist. Für mehr Informationen siehe einen Blogbeitrag zum Thema von John Goodwin.
Ordnance Survey war in den letzten Tagen im Gespräch, z.B. in den Medien und auf Twitter, weil es nun auch seine Karten online zur freien Verfügung gestellt hat.

Yves Raimond: BBC Linked Data
Sehr ansehnlich sind die Linked-Data-Seiten der BBC, die Yves Raimond präsentiert hat. Diese Seiten erhalten Unmengen an Daten über sämtliche Radio- und TV-Sendungen der BBC samt aller gespielten Lieder mit den entsprechenden Metadaten, Sendezeiten und und und. Wir empfehlen, darin einfach mal ein bisschen zu browsen. Wann wohl der WDR oder die ARD so etwas auf die Beine stellen werden? Die Daten sind ja da...

Chris Wallace: Model induction for RDF comprehension and browsing
Chris Wallace stellte eine Art Ontologie-Generator vor, auf den wir hier nicht näher eingehen, weil wir ihn schlicht in den fünf Minuten nicht genug erfasst haben. Es geht offensichtlich darum, eine Art Ontologie aus einer Menge von RDF-Tripeln induktiv herzuleiten.

Mark Birbeck: Where next for RDFa?
Mark Birbeck stellte die Frage über die Zukunft von RDFa und blieb eine Antwort schuldig. Vielleicht haben wir aber auch gerade nicht aufgepasst.

Richard Light: Museum Linked Data
Unseren Notizen nach zu urteilen, ist hiervon nicht viel hängengeblieben. Der Lightning Talk basierte auf diesen Folien oder sehr ähnlichen.

Rob McKinnon: Making Data Open
Rob McKinnons unterhaltsamer Vortrag stellte das Projekt Companies Open House vor, das aus Frustration am und Alternative zum öffentlichen Angebot (keine permanenten, weil Session-URLs) an einem Tag zusammengehackt wurde und Informationen zu UK-basierten Unternehmen unter stabilen URLs liefert.
Die Aufzeichnung eines (noch kürzeren Vortrag) von McKinnon zum Thema kann hier angeschaut werden.

Georgi Kobilarov: uberblic.org
Georgi Kobilarov (Berlin), der die DBpedia an der FU Berlin mitentwickelt hat, stellte sein neues Projekt uberblic.org vor. Es dient der Integration verschiedener Ontologien in einer Über-Ontologie, die in einem kollaborativen Prozess entstehen soll. Das Ganze sah ziemlich interessant aus, ist derzeit aber noch nicht offen zugänglich. Man darf gespannt sein...

John Goodwin: Genealogy and Linked Data
John Goodwin gab einen Überblick über seine Anwendung von Linked-Data auf das Feld der Genealogie.

Kristof Van Tomme: Drupal and the semantic web
Kristof Van Tomme (Pronovix) eräzhlte etwas über die RDFa-Integration in der kommenden siebten Version des Content-Management-Systems Drupal.

Linked Data Clinic - Fragen an die ExpertInnen

Zum Abschluß des Workshops wurden in der "Linked Data Clinic" von den anwesenden Experten einige grundlegende Fragen diskutiert, aber - und das war auch nicht Sinn der Übung - keineswegs abschließend beantwortet.

Bestehende URIs wiederverwenden oder neue prägen?
Anknüpfend an die Problematik der owl:samewas-Relationen (s.o.) ging es zunächst darum, welcher Ansatz grundsätzlich zu bevorzugen ist: Beim Publizieren von Linked Data auf bestehende URIs zurückzugreifen oder eigene URIs zu prägen, welche dann mit den bestehenden verknüpft werden. Hier gab es keine eindeutige Präferenz.

Versionierung und Beschreibung von RDF-Daten
Ein weiteres wichtiges Feld, dessen Wichtigkeit allgemein anerkannt wurde, ist das der Metadaten zu Linked Data. Wie können Standards geschaffen werden, um RDF-Daten zu beschreiben? Welche Ansätze gibt es, RDF-Daten zu versionieren? Beiden Fragen liegt wieder das Reifikations-Problem zu Grunde, also die Beschreibung von RDF-Aussagen durch RDF-Aussagen. [Anmerkung: es besteht, wie bereits erwähnt, durchaus die Möglichkeit, RDF-Aussagen zu eigenständigen Ressourcen zu erheben. Aber diese birgt so einige Folgeprobleme, so dass die Frage erlaubt sein muss, ob im RDF-Modell nicht schlicht etwas vergessen wurde: nämlich die Berücksichtung dessen, dass auch Aussagen Ressourcen sind - und sogar sehr wichtige.]

RDF-Modellierung: Agile Entwicklung oder Wasserfall?
Weiter ging es mit der die Anwendungsentwicklung betreffenden Frage, inwiefern Änderungen in einem RDF-basierten Datenschema ad-hoc möglich sind, ob also das RDF-Modell mit der agilen Softwareentwicklung kompatibel ist. Hier herrschte weitgehend der Tenor, dass das Erweitern des Schemas deutlich schmerzfreier ist, als in einem relationalen Datenmodell, da das zugrundeliegende Datenbankschema - so denn ein Triple Store eingesetzt wird - nicht geändert werden muss.

Google-RDF: Was wären die Folgen
Zuletzt wurde ergebnisoffen die Frage diskutiert ob RDF auch dann eine zukunftsträchtige Basis für Linked Data bleibt, wenn ein "Big Player" wie Google auf die Idee kommen sollte, auf einen anderen Standard zu setzen.

Abschlussfrage
Die Abschlussfrage an die Experten lautete: Was sind die Herausforderungen für (1) die Linked-Data-Gemeinschaft bzw. (2) für Linked-Data-Anfänger?

Jeni Tennison wies noch einmal darauf hin, dass mit der Verbreitung von Linked Data auch verstärkt die Frage der Provinienzdokumentation und Versionierung aufkommen wird, und man wohl daran täte, die oben bereits angedeuteten Probleme offensiv anzugehen.
Steve Harris und Hugh Glaser betonten, das bei aller Umwandlung von bestehenden Daten in das Linked-Data-Modell die Entwicklung von (Endnutzer-)Anwendungen, die auf diesen Daten operieren, nicht vergessen werden darf.
Georgi Kobilarov deutete an, dass ein Problem für Einsteiger - vor allem in die technischen Aspekte von Linked Data - weniger die Komplexität der Materie als vielmehr das Finden der richtigen Tutorials und Dokumentationen im Web ist.

Auch wir meinen: Linked Data ist von Natur her dezentral, und so sollte daran gelegen sein, dass sich die Auseinandersetzung mit der Materie nicht auf einen elitären Zirkel beschränkt. (Hmm, leider ist dies hier auch nicht gerade zu einem Einführungstext geraten. Vielleicht ein andernmal...)

2009-11-09

Wissen und Informationsfreiheit

Anstatt eines Credos, hier ein Scio, also anstatt eines Glaubensbekenntnisses ein Wissensbekenntnis:
Ich weiß, dass über alles Wissen gestritten werden muss. Nur dieses  Wissen ist unbestreitbar, dass die beste Voraussetzung jedes Wissensstreits der freie Zugriff Aller auf die relevanten Informationen ist.

2009-11-03

Exzerpt-Monitoring und -anreicherung mit Tynt

 [Update, 21.12.2009: Ich war ja von Anfang an selbst nicht so sehr begeistert von Tynt und habe das Experiment abgebrochen. Mittlerweile habe ich das Exzerptmonitoring wieder deaktiviert.]

Seit einer Woche habe ich übrigens Tynt Insight für dieses Blog installiert. Das ist ein Tool zum Monitoring der Nutzeraktionen auf den Webseiten einer bestimmten Domain. Eine Anmeldung bei Tynt und das Kopieren einer Zeile Javascript in den Quelltext reichen aus und es geht los. (Da Tynt Insight auf Javascript basiert lässt es sich auch - etwa durch die Nutzung von noscript oder ähnlichem - umgehen.)

Und was macht dieses Tool jetzt genau? Es sind vor allem zwei Nutzeraktionen, die Tynt erfasst, zählt und auswertet: Copy & Paste und das Kopieren von Bildern. (Augenfixationserkennung wird noch nicht unterstützt. ;-) Das heißt, ich kann in Echtzeit erfahren, welche Zeichenketten sich Übertext-Leser zu welcher Zeit markiert und kopiert haben. Darüberhinaus werden alle 24 Stunden Statistiken über die Aktivitäten erstellt. So kann ich erfahren, welche Inhalte für die Leserinnen besonders interessant sind und kann diese - wenn ich mir den Pro-Account gönne - sogar automatisch twittern lassen.

Metadaten automatisch mitgeliefert

Soso, mag jetzt so manch einer denken, das ist ja sehr aufschlussreich, besonders für ein Blog, dessen Beiträge jeweils 30 bis 100mal angeschaut werden... Ehrlich gesagt war das Exzerptmonitoring auch nicht der ausschlaggebende Punkt für mich, Tynt Insight zu installieren. Ganz im Gegenteil, ich finde es persönlich eher abschreckend, wenn ich weiß, dass jedes Exzerpieren registriert wird.

Was mich gereizt hat war die Anreicherung von Exzerpten durch die automatische Beigabe von Metadaten. Probier es einfach mal aus und kopiere eine beliebige Zeichenkette, füge sie - etwa in einen Editor - ein und du wirst sehen: nicht nur die kopierte Zeichenkette erscheint, sondern auch interessante Metadaten, nämlich die Lizenzinformation und eine URL, die dich zur jeweiligen Seite mit dem hervorgehobenen Exzerpt zurückführt.

Sinnvoll & praktisch oder überflüssig & nervig?

Mich würde interessieren was andere von diesem Tool halten. Findet ihr es praktisch oder gefällt es euch nicht? Mich hat es teilweise schon genervt, wenn ich beim Einfügen mehr Text stehen habe als ich eigentlich kopiert hatte. Andererseits kann ich mir aufbauend auf dieser Technik sehr praktische Anwendungen für das Exzerpieren und Zitieren elektronischer wissenschaftlicher (Hyper-)Texte vorstellen. Dies kann sicher jeder nachvollziehen, der etwa schonmal eine Textpassage zitieren wollte, die dazugehörige Quellenangabe aber verlegt hatte.

2009-11-01

Flickr und Open Library verlinken

Ich hatte vor einiger Zeitschon mal was drüber gelesen, es bisher aber nie ausprobiert: das Maschinentagging von Flickr-Bildern zur Verlinkung mit der Open Library. Eine Präsentation zur Open Library beim MALIS-Studiengang war nun der Anlass, diesen spaßigen Dienst einmal auszuprobieren.

Zunächst habe ich ein Testfoto machen lassen und auf Flickr hochgeladen. Dann war es ein leichtes, die Verknüpfung zum entsprechenden Bucheintrag bei der Open Library herzustellen, weil diese Maschinentags alles andere als kompliziert sind. Sie haben die Form openlibrary:id='Buch-ID', in meinem Fall also openlibrary:id=OL2274241M.

Das Ergebnis: Auf der Flickr-Seite des Fotos erscheint ein kleiner verlinkter Hinweis "LIB Symbolische Maschinen ist ein Buch der Open Library", dem jedeR folgen kann um die  bibliographischen Daten des Buches einzusehen oder - falls verfügbar - im digitalisierten Volltext zu stöbern. Leider funktioniert die Verknüpfung momentan (noch) nicht in die andere Richtung, d.h. beim Bucheintrag in der Open Library gibt es keinen Link auf maschinengetaggte Flickr-Bilder.

Ist es nicht schön, was man alles Tolles machen kann, wenn man nur eindeutige IDs und darauf aufbauende stabile URLs hat...

2009-10-23

Turboübertext mit Dublin-Core-Anreicherung in RDFa

Eine Aufgabe im zweiten Semester meines MALIS-Studiengangs ist, eine beliebige Webseite zu katalogisieren, indem der Inhalt der fünfzehn simplen Dublin-Core-Elements angegeben wird. Freundlicherweise war meine Arbeitsgruppe (mein Dank geht an Irene, Katrin und Tobi) damit einverstanden, mein Blog als Versuchsobjekt zu nehmen. Mein Kollege und Freund Felix Ostrowski (foaf-Anreicherung folgt ;-) hat mich schließlich tatkräftig dabei unterstützt, das Blog anzureichern.

Auf der Basis der Katalogisierungs-Ergebnisse ist nun das Blogger-Template, aus dem die Seiten des Blogs (die Überseite http://www.uebertext.org/ sowie die Seiten der einzelnen Beiträge, z.B. http://www.uebertext.org/2009/09/pladoyer-fur-ein-twitter-recherche.html) generiert werden, mit den Dublin-Core-Elements in RDFa angereichert. Darüber hinaus habe ich noch die DC-Terms-Refinements "is part of" und "license" ergänzt.


Mit dem RDFa-Distiller des W3C lässt sich das im XHTML-Text verstreute RDFa in ein RDF/XML-Dokument destillieren und die Ergebnisse sehen schon ziemlich gut aus.

Gerne lade ich das Blogger-Template irgendwo hoch, vielleicht in einem Wiki. Hat jemand einen Vorschlag, welches der geeignetste Ort ist?

Warum Blog-Vorlagen nicht an der Basis anreichern?

So sinnvoll die Aufgabe, eine Webseite zu katalogisieren sein mag, um Vertrautheit mit den Dublin-Core-Elementen zu fördern - es ist klar, dass heutzutage nicht Bibliothekare hingehen werden, um das Web zu katalogisieren. Diese Unterfangen wäre auch gänzlich unsinnig, weil die meisten Metadaten, auf die sich die Dublin-Core-Elemente beziehen, bereits in strukturierter Form vorliegen und nur noch entsprechend markiert werden müssen.

Es wäre also sehr wünschenswert, wenn Blogging-Plattformen wie Blogger, WordPress, Twoday, Blogsport usw. das xHTML-Markup ihrer Vorlagen standardmäßig mit Dublin-Core-Attributen anreichern würden. Dies würde dem Netz ohne großen Aufwand eine große Menge maschinenlesbarer Metadaten einbringen. Eine Twitter-Anfrage an Dublin Core, ob es bereits Bestrebungen in diese Richtung gibt, blieb leider unbeantwortet.

2009-09-17

Plädoyer für ein Twitter-Recherche-Hashtag

Beim Missverstehen der Twitter-Anwendung WeFollow ist mir gestern eine Idee gekommen: Wieso nicht ein Twitter-Hashtag etablieren, das Recherchierende ihrem Tweet hinzufügen, wenn dieser eine Auskunftsanfrage beinhaltet? Auskunftsbibliothekare oder andere, die gerne bei Recherchen weiterhelfen, können sich dieses Hashtag abonnieren und die Anfragen mit hilfreichen Links auf Bibliographien, Kataloge oder andere Informationsquellen beantworten.
Das Ganze wäre sozusagen eine auf Rechercheanfragen spezialisierte Form von Diensten wie AskOnTwitter. Allerdings ist eine spezielle Anwendung für einen solchen Dienst nicht einmal nötig, wenn das ganze über ein Hashtag läuft.

Ist nur noch die Frage, welches Hashtag wir dafür benutzen sollten. Es sollte nicht zu lang sein aber auch noch nicht haufenweise vorkommen, damit man es mit der neuen Funktion besetzen kann. Wie wäre es denn mit #theke? Oder lieber was auf Englisch? #enquiry? #inquiry? #infodesk?

Ich habe direkt mal begonnen...

2009-09-02

Wann ist Digitalität?

Das digitale Zeitalter bzw. "digital age" ist spätestens seit den 90er Jahren in aller Munde. Diese Ausdrücke sind offensichtlich gängige Etiketten für die Bezeichnung des Wandels unserer Gesellschaft zur Wissensgesellschaft, für die Verbreitung von Computer und Internet.

Diese Sprachpraxis zeigt, dass Digitalität meist an die elektronische Übertragbarkeit von Signalen gekoppelt wird. Ein Blick in die englischsprachige Wikipedia genügt indes, um darauf hingewiesen zu werden, dass digitale Medien [1] schon seit Jahrtausenden existieren. Eines der ältesten Beispiele für ein digitales - in diesem Fall sogar binäres - Medium dürfte das Leuchtfeuer sein, welches zwei unterschiedliche Zustände zur Verfügung stellt, um Information zu transportieren: es brennt oder es brennt nicht, an & aus.

Man könnte also behaupten, das digitale Zeitalter habe bereits vor tausenden von Jahren begonnen und die gängige Verwendung des Ausdrucks sei somit unpassend und irreführend. Unpassend und irreführend: ja. Allerdings würde ich jedoch den Beginn der digitalen Ära etwas später ansetzen, frühestens mit der Erfindung der Hieroglyphen um 3000 oder der Alphabetschrift um etwa 1500 bis 800 vor unserer Zeitrechnung. Erst hier hat sich die Praxis etabliert, komplexe Sachverhalte mittels eines Codes, d.h. eines beschränkten Inventars von Zeichen, zu kommunizieren.

Digitalität basiert auf Code

Und es ist der Code, an dessen Verwendung die Existenz von digitalen Medien notwendigerweise gebunden ist. Ein Code ist eine endliche Menge klar unterschiedener Typen. Der Code "Alphabet" zum Beispiel besteht aus 26 Buchstabentypen. Typen sind Klassen, abstrakte Entitäten. Schließlich würde niemand behaupten, er habe den Buchstaben 'A' gesehen, denn: Das 'A' gibt es nicht, ich sehe immer nur ein bestimmtes 'A'. Die einzelnen sichtbaren Erscheinungsweisen (die Token) eines Buchstaben sind äquivalent, untereinander austauschbar. Dies zeigt sich etwa darin, dass wir unzählige verschiedene Schriftarten haben, die sich miteinander kombinieren lassen und dennoch das Geschriebene nicht unleserlich machen.

Ein Code ist nie - wie Derrida schreibt - „strukturell geheim“. Selbst, wenn ich eine Schriftsprache nicht verstehe, kann ich den dahinterliegenden Code (das Alphabet) herausfinden und ihn wiedergeben. Bei der gesprochenen Sprache hingegen existiert ein solcher Code nicht, sie ist analog. Die Struktur einer oralen Sprache herausfinden heißt, diese Sprache verstehen. Ohne jedes Verstehen des Geäußerten sind die wahrgenommenen Laute nur Geräusch.

Digitales Zeitalter vs. Bitzeitalter

Was soll das Ganze hier? Texte sind digital, das Internet ist digital, wollen wir sie verstehen, müssen wir die Digitalität verstehen. Auch müssen wir Schrift und Computer(programm) unterscheiden können, um die Revolution, den Wandel verstehen zu können, den Computer und Internet mit sich bringen. In einem früheren Beitrag habe ich schon ein Phänomen beleuchtet, wo (Autoren-)Probleme dem Computer oder Internet zugeschrieben wurden, die sich letztlich auf die ursprünglichere Digitalität der Schrift gründen. Gerade mit der Entfaltung des Bitzeitalters (wie ich es jetzt mal nenne) ist meines Erachtens eine differenzierte Betrachtung angebracht, will man die Ursachen und Zusammenhänge bestimmter Phänomene und Probleme ergründen.

Was macht nun das Bitzeitalter aus? Was sind seine Eigentümlichkeiten? Welche zusätzlichen Features (und Bugs) bringt es mit sich?
Der Binärcode ist Resultat maximaler Reduktion - er besteht nur aus zwei Typen: ja/nein, an/aus. Elektronische Speicherung und Übertragung machen nun auch die Token nahezu körperlos, so dass Informationen
sich problemlos und massenhaft kopieren und transportieren lassen und überall und jederzeit abrufbar sind. Dennoch können die Tokens wiederum nicht ohne körperliche Trägermedien existieren. Zudem ist für Menschen der Binärcode selbst nicht lesbar und somit untrennbar an Hard- und Software gebunden, die ihn lesbar machen. Hieraus ergeben sich dann etwa die Probleme der digitalen Langzeitarchivierung.

Welche weiteren Möglichkeiten und Probleme bringt das Bitzeitalter mit sich? Was sind die Eigentümlichkeiten von Programmcode, Hypertext und XML? Ich bin sicher, dass ich auf diese und andere Fragen zurückkommen werde. Zunächst bin ich aber mit diesen zwar grundlegenden aber nicht
tiefgehenden, weil knappen Ausführungen am Ende angelangt.

[1] Im Unterschied zur gängigen Verwendung des Ausdrucks 'Medium' für körperliche Kommunikationsmittel (Fernsehen, Radio, Buch, Zeitung etc.) gebrauche ich einen weiten Medienbegriff, der auch Schrift, orale Sprache, Malerei usw. umfasst.

Quellen:
Mein Verständnis des Digitalen speist sich aus den Texten "Sprachen der Kunst" (hier: Kapitel IV) und "Revisionen" (hier: Kapitel VIII) von Nelson Goodman, der die Digitalität akribisch mithilfe logischer Terminologie definiert. Der Text "Signatur. Ereignis. Kontext" (u.a. hier (S.68-109) erschienen) von Jacques Derrida ist auch sehr aufschlussreich.

2009-08-17

minibib: Bibliothek im Park

Was sah ich da gestern bei einem kleinen Familienausflug im Stadtgarten Kölns: ein kleines, feines neues Häuschen, das zudem noch Bücher beherbergt. Ein zweiter Blick brachte Sicherheit. Da ist, ohne dass ich es mitbekommen hätte, die erste "Minibib" Deutschlands in Köln aufgestellt worden. Die Eröffnung fand schon am 30. Juni dieses Jahres statt. (Vielleicht sollte ich doch einmal den Lokalmedien mehr Aufmerksamkeit schenken...)

Ein nettes Konzept: Bibliothek ohne Computer, ohne Ausweise und ohne Bibliothekare. Allein etwa 1000 Bücher verschiedener Sparten (Kinder-, Jugend- & Sachbücher, Romane) warten darauf ausgeliehen und gelesen zu werden. Die Bücher werden aus Schenkungen an die Stadtbibliothek ausgewählt und in der Minibib aufgestellt. Eine
ehrenamtliche Person berät und informiert und passt auf, dass jedeR nur ein Buch ausleiht und nichts durcheinander kommt. Die Leihfrist beträgt zwei Wochen, allerdings ist das eher ein Richtwert - kontrollieren kann und will es ja niemand. Eine kleine Strichliste dient dem Überblick über Ausleihen und Rückgaben. Wie mir die ehrenamtliche Mitarbeiterin gestern bestätigte, übertrifft der Rücklauf die optimistischsten Erwartungen. Das Vertrauensprinzip scheint aufzugehen.

Wir jedenfalls nahmen diese Gelegenheit zu einer kleinen Ruhepause mit Kinderbüchern gerne wahr und werden sicher auch in Zukunft öfter mal vorbeischauen...

Weitere Infos unter http://www.stbib-koeln.de/foerderverein/index.htm

2009-07-23

Grundoperationen der Katalogisierung

Im Studium zum (wissenschaftlichen) Bibliothekar nimmt die Katalogisierung selbstverständlich einen wichtigen Platz ein. Der Stoff: RAK, AACR, MARC & MAB. Das hört sich nicht nur trocken an... Aber was machen Katalogisierer nun eigentlich? Auf welche Handlungstypen lässt sich diese vergleichsweise streng geregelte Tätigkeit runterbrechen? Ich denke, diese Fragen verdienen einige Aufmerksamkeit, will man verstehen, was Katalogisieren ist. Aus diesem Grund habe ich versucht, diese "Grundoperationen" der Katalogisierung zu sammeln. (Falls ich was Wichtiges vergessen oder etwas nicht richtig dargestellt habe, bitte bellen.)

Bei der Katalogisierung lassen sich folgende sechs Aktionstypen, die ich weiter unten näher erläutern werden, unterscheiden:

  • Klassifizieren,
  • Normieren,
  • Exzerpieren,
  • Verknüpfen,
  • Ein-/Zuordnen,
  • Kooperieren.
In einer Mindmap (mit der Open-Source-Software XMind erstellt, am besten hier im Vollbildmodus anzuschauen) sieht das ganze dann so aus:

Klassifizieren
Beim Klassifizieren handelt es sich um die Voraussetzung bibliothekarischer Inhaltserschließung (d.h., wenn man keine frei Schlagwortvergabe = Tagging zulässt ;-)). Klassifizieren besteht in der Erschaffung eines kontrollierten Vokabulars (einer Klassifikationen oder eines Thesaurus). Den Klassen einer Klassifikation werden in einem nächsten Schritt (vgl. Ein- und Zuordnen) die einzelnen Bücher und andere Medien zugewiesen, die es inhaltlich zu erschließen gilt und sie werden mit Schlagwörtern versehen, die Teil eines Thesaurus sind . In der Bibliothekswelt gilt traditionellerweise: Keine Klassenzuweisung ohne Klassifikation und keine Schlagwortvergabe ohne eine bestimmtes, d.h. vorgegebenes Repertoire möglicher Schlagwörter.

Normieren
Normierung oder Standardisierung geschieht bei der Katalogisierung in Bezug auf die sogenannten Ansetzungsformen. Dies sind die Vorgaben, wie man Entitäten, die über verschiedene Datensätze verteilt immer wieder auftauchen (können), in einen Datensatz einträgt, also Personen und Körperschaften (Institutionen wie Verlage oder Universitäten). Auch die Bestimmung von Schlagwörtern und Klassenbezeichnungen (d.h. die Klassifizierung) ist eine Normierung, der ich aber einen eigenen Punkt zugewiesen habe, weil Bibliothekarinnen dabei einen größeren Gestaltungsspielraum haben. Die Menge und Bezeichnung von Autoren und Körperschaften wird aber eben von außen vorgegeben.


Exzerpieren (&Anpassen)
Die sogenannte "Autopsie" bei der Formalerschließung, d.h. die Übernahme der Angaben von der Titelstelle und anderen Stellen eines Mediums in den Datensatz, ist nichts anderes als ein Exzerpt, eine Kopie von Teilen eines Textes. Darüberhinaus gibt es eben Regeln, welche Angaben einer Normierung (etwa durch eine Normdatei) unterliegen und dementsprechend im Datensatz angepasst werden müssen.



Verknüpfen
Verknüpfen gehört zumindest in Deutschland schon lange zur Katalogisierungspraxis. (Ich glaube im angelsächsischen Raum läuft das anders, ich kenne mich da aber nicht aus.) So werden die Autorenangaben, Schlagwörter und Körperschaften durch Angabe der jeweiligen ID mit ihrem Normdatensatz verknüpft.
Ähnliche und darüber hinausgehende Verknüpfungen sehen auch die noch nicht praktizierten Functional Requirements for Bibliogaphic Records (FRBR) vor. (Wie etwa Anne Christensen kürzlich mit Verweis auf den Horizon-Report geschrieben hat, spielen semantische Anwendungen (und als deren Grundlage semantische Annotationen und Verknüpfungen wie jene auf der Basis von FRBR) in Zukunft eine wichtige Rolle. Eine Umsetzung der FRBR wäre sicher ein Schritt in die richtige Richtung.)


Ein- bzw. Zuordnen
Das Einordnen vollziehen Katalogisierer durch die Einordnung von Katalogisaten in die Klassen einer Klassifikation. Schlagwörter werden einem Katalogisat zugeordnet.

Kooperieren

Ich weiß nicht, wann die Geschichte der kooperativen Katalogisierung begann, in den 70er Jahren wurde diese Praxis in Deutschland mit der Errichtung von Bibliotheksverbünden institutionalisiert. Durch die Möglichkeit maschineller Bearbeitung der Daten mittels Elektronischer Datenverarbeitung (EDV) war eine bequeme und effiziente Vervielfältigung und Nachnutzung der Daten Realität geworden. (Der Transport lief damals allerdings noch nicht elektronisch ab. Zum hbz gehörte lange Jahre ein Fahrzeug plus Fahrer, die für den Transport der Magnetbänder zwischen der Verbundzentrale und den Verbundbibliotheken zuständig war.)
Das Kooperieren fällt hier offensichtlich ein wenig aus dem Rahmen, weil es keine Tätigkeit wie die Vergabe von Schlagwörtern oder dar Erstellen einer Klassifikation ist. Kooperation stellt (idealerweise) den Hintergrund der gesamten Katalogisierung dar und berührt somit alle anderen Aspekte. Und eben weil die Arbeitsteilung und gegenseitige Unterstützung in der Katalogisierung ihren festen Platz hat, halte ich es für wichtig, diesen Aspekt hier auch anzuführen.

2009-07-16

Rettet das Urheberrecht, verbietet die Schrift!

Dieses ganze Geblubber von Leuten wie Roland Reuß und auch Volker Rieble gestern wieder auf einer Anti-Google- und Anti-Open-Access-Veranstaltung mit dem Titel "Autorschaft als Werkherrschaft in digitaler Zeit" im Frankfurter Literaturhaus, lässt einen nur ratlos mit der Schulter zucken.
Reuß und Rieble sehen sich offensichtlich als hochgeistige Menschen an, deren Schriftprodukte deswegen auch nur von einem erlauchten Kreis ebenso "intellektueller" Personen gelesen werden sollten. Alles andere würde ihre Werke entwerten. Deshalb müsse ein Autor derartige Kontrolle über sein Werk haben, dass er die Kontexte bestimmen kann, in denen das Werk präsentiert wird.
Zum Hintergrund meiner Interpretation hier einige Originalquellen und Paraphrasen entsprechender Aussagen von Reuß und Rieble.

Am 25.4.2009
schreibt Reuß in der FAZ:
Niemand kann ihm [dem Wissenschaftler, AP] vorschreiben, in welchem Kontext sein Werk erscheint - oder gar diesen Kontext durch das unerlaubte Hochladen einer Arbeit auf irgendeinen Server bestimmen.
Wolfgang Tischer paraphrasiert Reuß' gestrige Ausagen zum Thema wie folgt:
Open Access berge laut Reuß die Gefahr, dass das Werk in einer Art und in einem Umfeld präsentiert werden könnte, wie es der Urheber niemals intendiert habe.
Thierry Chervel fasst Volker Riebles "Gedanken" zusammen:

Er [Volker Rieble] sah sich zum Beispiel als Teil einer Elite und möchte bestimmte seiner Werke nicht ohne seine Zustimmung einem von ihm als unqualifiziert angesehenen Netzpublikum zugeführt sehen.
Passenderweise fügt Thierry Chervel hinzu: "Bei späterer Gelegenheit wird er sicherlich erklären, wie er den Zugang zu Bibliotheken zu regulieren gedenkt." An diesen Gedanken möchte ich anknüpfen und ihn weiterführen. Mich erinnert das Ganze nämlich doch sehr an die einschlägige Schriftkritik in Platons Dialog "Phaidros" (275d), wo es heißt:

Ist sie aber einmal geschrieben, so schweift auch überall jede Rede gleichermaßen unter denen umher, die sie verstehen, und unter denen, für die sie nicht gehört, und versteht nicht, zu wem sie reden soll, und zu wem nicht. Und wird sie beleidiget oder unverdienterweise beschimpft, so bedarf sie immer ihres Vaters Hülfe; denn selbst ist sie weder sich zu schützen noch zu helfen im Stande.
(Übersetzung von Friedrich Schleiermacher, siehe auch den Phaidros im Projekt Gutenberg.)

Die Ansichten Reuß', die Andrea Diener unter dem Schlagwort "Texturheberschaft als Mutterschaft" zusammenfasst, passen doch vorzüglich in diese Weltsicht. Es ist eben die Schrift - und nicht das Internet -, die den Vätern und Müttern die Kontrolle über ihre geistigen Kinder schon lange entzogen hat. Vielleicht sollten Reuß und Co. also mal ihren Gedanken zuendeführen und den radikalen Schluss ziehen: Rettet das Urheberrecht, verbietet die Schrift! Dann würde wenigstens jeder auf Anhieb merken, was da für ein Unsinn geredet wird.

2009-07-06

Schlagworte oder Schlagwörter?

In letzter Zeit sind mir öfter Leute begegnet, die beim Sprechen (und leider auch Schreiben) nicht zwischen Worten und Wörtern unterscheiden. Diese Unwissenheit macht offensichtlich auch vor ProfessorInnen der Bibliotheks- und Informationswissenschaften nicht halt. Das "Deutschlehrermaskottchen" Bastian Sick (so etikettiert von Wiglaf Droste) hat natürlich schon längst die Verhältnisse klargestellt. Ich entblöde mich aber nicht, auch noch meinen Senf dazuzugeben, weil ich die Unterscheidung doch für das Bibliotheks- und Informationswesen als sehr relevant erachte. Damit also diese nützliche Unterscheidung aus unserer Sprache nicht verschwinden mag, hier mein Beitrag zum Erhalt dieser Differenz.

Wörter sind nicht Worte!
Wörter kann man zählen, Worte nicht. Wörter sind linguistische Einheiten, in der Schrift durch zwei Leerzeichen von anderen Wörtern getrennt. Worte können Gedanken, Aussprüche, Gedichte oder sogar ganze literarische Werke sein. Kompliziert ausgedrückt: Wenn wir vom Wort 'Gott' sprechen, hat das Wort 'Wort' eine andere Bedeutung, als wenn wir uns über das "Wort Gottes" unterhalten. Ersteres hat den Plural 'Wörter' und letzteres den Plural 'Worte'.

Folglich ist es mindestens unglücklich, im bibliothekarischen Bereich von Schlagworten zu sprechen, wenn man über die Deskriptoren eines kontrollierten Vokabulars spricht, weil diese ein Musterbeispiel für eine abzählbare Menge von Wörtern sind, vergleichbar mit einem Wörterbuch. Und deshalb heißen sie Schlagwörter. Schlagworte
, d.h. Slogans, Parolen oder Losungen, hingegen werden von Politikern, Journalisten oder Werbern benutzt. Sie können aus einzelnen Wörtern wie ganzen Phrasen bestehen, in einem Thesaurus sind sie aber nicht zu finden...

2009-06-28

OCLC: Policy zurückgezogen

Es war eh bereits klar: Schon am 20. Mai hatte Jennifer Younger, Leiterin des Review Board on Principles of Shared Data Creation and Stewardship, OCLC aufgefordert (Flash-Video, Präsentationsfolien), seinen Policy-Entwurf zurückzuziehen und einen transparenten partizipativen Prozess zur Entwicklung einer neuen Policy anzustoßen. Eine Bestätigung dieser Entscheidung durch OCLC hatte noch gefehlt.
Vorgestern wurde nun der Abschlussberichts des Reviewboards veröffentlicht und OCLC hat den Policy-Entwurf formal zurückgezogen. Eine neue Gruppe solle bald zusammengestellt werden, um - diesmal unter Beteiligung der OCLC-Mitglieder - eine neue Policy zu entwerfen.
So weit, so gut. Jetzt beginnt der lange Prozess, eine gemeinsame Metadaten-Policy in einer weltweiten Organisation mit über 70 000 Mitgliedsinstitutionen zu entwickeln. Das kann schonmal ein paar Jahre dauern. OCLC verweist darauf, dass solange weiterhin die Guidelines for the Use and Transfer of OCLC-Derived Records gelten.
Am besten, die Mitglieder einigen sich schnell darauf, die WorldCat-Metadaten der Öffentlichkeit zur freien Verfügung zu stellen. Was spräche auch dagegen, wenn man bedenkt, dass Bibliotheken seit Jahrhunderten die Texte anderer Leute frei zugänglich machen? Wieso also mit den eigenen Texten - und nichts anderes sind ja Metadaten - nicht das Gleiche tun?

2009-05-13

Bibliotheksverbünde lehnen OCLC-Policy ab

Gestern hat die International Coalition of Library Consortia (ICOLC) eine Erklärung zu OCLCs Policy-Entwurf veröffentlicht, in der OCLC aufgefordert wird, diesen Vorschlag zurückzuziehen und eine von Grund auf neue Policy zu verfassen. Die ICOLC ist eine informelle Vereinigung von knapp 150 Bibliotheksverbünden aus aller Welt und ihrer Stimme hat deshalb eine Menge Gewicht. Die Stellungnahme wird von vielen ihrer Mitgliedsorganisationen getragen. (Tim Spalding sieht daher die Policy in der von OCLC vorgeschlagenen Form als endgültig gescheitert an.)
Die Erklärung der ICOLC unterstützt den Inhalt des ARL-Berichts zur Policy und hebt besonders drei Punkte hervor:
1. Die Policy behindert Innovation anstatt sie zu fördern. OCLC missachte die vielfältigen und komplexen Interessen der internationalen Bibliotheksgemeinschaft.

2. Der Policy-Entwurf geht weit über den Schutz gegen kommerziellen Missbrauch von WorldCat-Daten hinaus und erstreckt sich auch auf den nicht-kommerziellen Gebrauch der Daten, etwa durch Bibliotheksverbünde.

3. Der Policy-Entwurf ist rechtlich unpräzise und unvollständig.
Alle Zeichen deuten nunmehr darauf hin, dass es einen Neustart der Policy-Entwicklung geben wird und daraufhin - so bleibt zu hoffen - ein so partizipativer wie transparenter Neuformulierungsprozess beginnen wird. Mal sehen, was das Treffen des OCLC-Mitgliederrats vom 17. bis 19. Mai mit sich bringt. Peter Murray befasst sich in einem Blogbeitrag mit der bevorstehenden Präsentation der Zwischenergebebnisse des Review Board of Shared Data Creation and Stewardship bei diesem Treffen und der konkreten Informations- und Diskussionspolitik im Anschluss daran.

2009-04-24

OCLC plant Internet Library Services

Werden Bibliothekssysteme (englisch: Integrated Library Systems ILS) in Zukunft durch Internet Library Services ersetzt? Das Online Computer Library Center (OCLC) verfolgt offensichtlich dieses Ziel. Der Welt größte Bibliotheksorganisation aus Dublin, Ohio verkündete gestern ihre Strategie, die darauf hinausläuft WorldCat Local in ein Konkurrenzprodukt zu klassischen Bibliothekssystemen auszubauen. Geplant ist die Entwicklung des WorldCat-basierten Lokalkatalogs zu einem integrierten Service, der neben einem Online-Katalog eben auch Funktionen umfasst, die bisher von Bibliothekssystemen übernommen wurden. Im ersten Schritt vom Integrated Library System zum Internet Library Service erhalten alle zahlenden OCLC-Mitglieder mit einem Firstsearch-Abo die Möglichkeit WorldCat Local als "quick start"-Version ohne zusätzliche Kosten zu nutzen. Ab nächstem Jahr soll WorldCat Local dann mit weiteren Funktionen für Ausleihe, Erwerbung und Lizenzmanagement ausgestattet werden. Der kooperative Charakter des ganzen Systems soll den Bibliotheken zusätzlichen Nutzen bringen.

Zur Klarstellung: OCLC selbst bezeichnet den beabsichtigen Service als "cooperative library management service" oder "platform-as-a-service" und spricht die Konkurrenz zu bestehenden Bibliothekssystemen und seine Absichten auf dem Markt für Bibliothekssysteme nicht konkret an. Der Ausdruck "Integrated Library System (ILS)" findet sich in keinem der OCLC-Texte zum Thema. Marshall Breeding macht allerdings in seinem Beitrag für das "Library Journal" deutlich:
"This new project, which OCLC calls 'the first Web-scale, cooperative library management service,' will ultimately bring into WorldCat Local the full complement of functions traditionally performed by a locally installed integrated library system (ILS)."
Es ist davon auszugehen, dass die zunächst geförderte Interoperabilität zwischen WorldCat Local und lokalen Bibliotheksystemen nur ein Übergangsstadium ist auf dem Weg zu einer Ablösung der lokalen Systeme durch OCLCs Plattform-Service. Die neue Strategie OCLCs wird also einige Bewegung in die ILS-Industrie bringen.

Eine lange überfällige Entwicklung
OCLC setzt nun also um, was in der Bibliothekswelt schon lange überfällig war. Wieso haben denn Bibliotheken ihr eigenes Lokalsystem, in dem die gleichen Daten vorgehalten werden, die sich auch im Verbundkatalog befinden? Wenn ein Bibliothekskatalog auch einfach als eine Teilmenge des Verbundkatalogs implementiert werden kann? Ich bin erst seit kurzer Zeit im Bibliothekswesen und habe mir diese Fragen schon öfter gestellt. Ein solcher Ansatz wie der OCLCs würde sämtliche Synchronisationsprobleme verschwinden lassen und auch müssten Bibliotheken keine lokale Server- und Softwareinfrastruktur mehr unterstützen. Zudem ergeben sich mit einer gemeinsamen Infrastruktur neue Möglichkeiten der Kooperation. OCLC sagt dazu:
"OCLC's vision is similar to Software as a Service (SaaS) but is distinguished by the cooperative "network effect" of all libraries using the same, shared hardware, services and data, rather than the alternative model of hosting hardware and software on behalf of individual libraries."
Unter dem technischen Aspekt ist dies also eine logische und zu begrüßende Entwicklung, die man nur gutheißen kann. Allerdings ergeben sich einige Probleme durch den enormen Machtzuwachs des - ohnehin weltweit mächtigsten - Unternehmens im Bibliothekswesen.

Ein Ausbau des OCLC-Monopols?
So interessant und sinnvoll die Entwicklung ist, nach unseren Erfahrungen mit der versuchten Verordnung einer OCLC-Metadaten-Policy bestehen berechtige Bedenken, dass OCLC versucht, sein (zumindest im angloamerikanischen Raum) de facto Metadaten-Monopol zu nutzen, um auch ein Software-Monopol aufzubauen. Tim Spalding spekulierte schon vor zwei Jahren über solche Absichten OCLCs und warnt auch heute vor einem OCLC-Monopol.
Fakt ist: Wenn die Mitglieder nicht die geplante Metadaten-Policy verhindern oder substantiell ändern, dann wird OCLC auch im Bereich der Bibliothekssysteme übermäßige Macht bekommen. Denn: Mit einer WorldCat-Metadaten-Policy, die verbietet, unter Verwendung von WorldCat-Daten "the function, purpose, and/or size of WorldCat" nachzubilden, kann kein anderer Anbieter ernsthaft in Konkurrenz zu OCLC treten. Es wäre einfach nicht möglich die erforderliche Datenmenge aufzubauen.

Somit macht die von OCLC angekündigte Strategie nur noch deutlicher: Die OCLC-Mitglieder, ja die gesamte bibliothekarische Gemeinschaft müssen für eine WorldCat-Metadaten-Policy kämpfen, welche die WorldCat-Daten unter eine Lizenz stellt, die den freien Zugriff auf diese Daten sowie ihren unbegrenzten Transfer erlaubt. Da das Erstellen der Metadaten zum größten Teil aus öffentlichen Mitteln finanziert wurde, ist diese Forderung ohnehin die einzig konsequente.

2009-04-14

Ein Weckruf

von Peter Mayr Adrian Pohl
[Diese Rezension ist ein Gemeinschaftsprodukt von Peter Mayr (Blog, Twitter) und mir. Wir haben sie im Rahmen des MALIS an der FH Köln verfasst.]

Transformational Times: An Environmental Scan Prepared for the ARL Strategic Plan Review Task Force. (2009). (S. 24). Association of Research Libraries. Abgerufen April 3, 2009, von http://www.arl.org/bm~doc/transformational-times.pdf.

Das Papier
Mit "Transformational Times" legt die Association of Research Libraries (ARL) eine zukunftsweisende Studie vor, die an Deutlichkeit nicht zu wünschen übrig lässt. Das als "environmental scan" bezeichnete Papier zeichnet ein grobes Bild der zukünftigen Entwicklungen in Forschung, Wissenschaft, Politik und Recht, an denen sich wissenschaftliche Bibliotheken zu orientieren haben. Der Weckruf kommt von einer kraftvollen Organisation, deren Stimme in Bibliothekswesen und -politik Nordmerikas einiges Gewicht hat. Die Association of Research Libraries ist eine Vereinigung von großen Forschungsbibliotheken in den USA und Kanada. Ein annäherungsweise vergleichbarer Zusammenschluss in Deutschland ist die Arbeitsgemeinschaft der Spezialbibliotheken (ASPB), deren Mitlieder allerdings aus einem breiteren Spektrum von Bibliotheken stammen.
"Transformational Times" dient als Grundlage für eine Neuausrichtung der ARL-Strategie, auf deren Basis schließlich die Prioritäten und Aktivitäten für die kommenden Jahre festgelegt werden sollen. Der "environmental scan" betrachtet die Entwicklung der Umwelt wissenschaftlicher Bibliotheken und unterscheidet hierzu drei Bereiche, denen jeweils ein Kapitel gewidmet wird:
  1. Die Verfahren der Kommunikation und Publikation in den Wissenschaften
  2. Die Auswirkungen von Politik und Gesetzgebung auf die Bibliothekswelt (auf USA & Kanada beschränkt)
  3. Die Rolle der Bibliothek beim Forschen, Lernen und Lehren
Besonders interessant sind die Punkte 1 und 3, weil sich hier größere Parallelen zur Entwicklung in Europa finden.
Bevor die einzelnen Kapitel näher betrachtet werden, hier einige Schlüsseltrends, die sich herauskristallisieren:
  • Bibliotheken müssen die Abläufe zur Verwaltung traditioneller Inhalte verändern und neue Fähigkeiten für den Umgang mit neuen Typen von digitalen Materialien und neuen (digitalen) Formen von Lehre, Lernmitteln, Spezialbeständen und Forschungsdaten entwickeln.
  • Die widerstreitende Entwicklung von immer restriktiveren geistigen Eigentumsrechten auf der einen und Open-Access-Modellen auf der anderen Seite wird sich verstärken.
  • Öffentliche Einrichtungen müssen in zunehmenden Maße eigene Erfolge gegenüber Unterhaltsträgern durch Zahlen belegen.
  • Neue kooperative Herangehensweisen an traditionelle und neue Praktiken sind gefragt.
  • Bibliotheken müssen Veränderungen ihrer Organisationsstrukturen und Dienstleistungen vornehmen und dafür heterogeneres Personal einstellen.
  • Der kontinuierliche starke Wandel in den Forschungs- und Lehrmethoden führt zu neuartigen Beziehungen zu den BibliotheksnutzerInnen.

Die Inhalte

Hier nun eine kurze Wiedergabe der wichtigsten Punkte in den einzelnen Abschnitten.

"Trends in Scholarly Communication"
Die ARL sagt in diesem Abschnitt eine Phase der ständigen Transformation und Entwicklung der wissenschaftlichen Kommunikations- und Publikationsstrukturen - u.a. als Reaktion auf die Zeitschriftenkrise - voraus. Dies zwinge Bibliotheken dazu, ihre Dienstleistungen zu verlagern und weiterzuentwickeln. Dazu sei eine Kommunikation und Kooperation mit anderen Partnern - insbesondere den Wissenschaftlern selber - unerlässlich. Bibliotheken müssten den aktuellen wissenschaftlichen Forschungsprozess kennen, um diesen zu fördern und die richtigen Dienste anbieten zu können. Eine besondere Herausforderung für Bibliotheken seien auch die zunehmende Kommunikation schon während des Forschungsprozesses (nicht mehr nur Publikation des Ergebnisses als Aufsatz) und neue Formen der Kommunikation. Auch darin entstandenes Wissen sollte von den Bibliotheken verwaltet und verbreitet werden können.

"Trends in Public Policies Affecting Research Libraries"
Der Bericht weist auf die bevorstehenden zuträglichen und hemmenden Entwicklungen in Politik und Rechtsprechung hin. Eine starke Reibung werde es zwischen Bestrebungen zur Förderung von Forschung und Lehre einerseits (u.a. Förderung von Open-Access-Publikationsmodellen) und der weiteren Entwicklung und Verschärfung des Urheberrechts und des Geistigen Eigentums andererseits geben. Die Förderung der Wissenschaft wie auch die Bemühungen zur Erhaltung digitaler geistiger und kultureller Inhalte könnten sich Bibliotheken zunutze machen, auf der anderen Seite stehe aber ein harter Wettbewerb um die Fördergelder bevor. Hervorgehoben wird auch der allgemeine Trend zur Messung und Bewertung öffentlicher Einrichtungen.

"Trends in the Library Role in Research, Teaching, and Learning"
Auch in diesem Abschnitt geht es um einen radikalen Wandel - in Forschung, Lehre und Lernverhalten. Genannt wird etwa die Entstehung sogenannter "Cyberinfrastructures", virtueller Lern- Lehr- und Forschungsumgebungen. Die Bibliotheken seien dadurch gezwungen, ihre Dienstleistungen anzupassen und selbst gravierende organisatorische Veränderungen vorzunehmen. Das Web2.0 schaffe derweil Tatsachen im Hinblick auf verstärkte Kommunikation und Kollaboration. Um sich an diese neue Wissenschaftslandschaft anzupassen und sie gar mitzugestalten müssen Bibliotheken mit Partnern zusammenarbeiten. Die Wahl der richtigen Kooperationspartner wird dabei zu einer grundlegenden Entscheidung. Der Bericht erwähnt zudem noch die Problematik der Langzeitarchivierung des Internets: Auch diese Frage ist für Bibliotheken von großem Interesse, in Zeiten, wo es etwa starkes Interesse an der Archivierung von Blogs (z.B. in den Rechtswissenschaften) gibt.

Die Wirkung

Eine der Stärken des Berichts ist sicher die gut strukturierte Darstellung anhand der drei strategischen Ausrichtungen. Während in der englischsprachigen Fachblogs die Thesen durchaus diskutiert werden (z.B. hier), ist die Rezeption im deutschsprachigem Raum verhalten. Bleibt abzuwarten, ob dieser Weckruf die erwünschte Wirkung zeigt und den Bibliotheken deutlich wird, welchen drastischen Veränderungen ihre Umwelt unterworfen ist. Eins ist klar: Auch wenn gewisse Leitlinien sichtbar werden, niemand weiß, wo die Reise konkret hingeht. Das ist aber auch eine Chance für Bibliotheken, die - wenn sie rechtzeitig und angemessen reagieren - diese Entwicklungen mitgestalten können.