2016-11-11

Stöbergraph

Yewno, gegründet 2011, ist ein durch Venture Capital finanziertes Unternehmen, das laut Selbstbeschreibung eine "Inferenz- und Analyse-SaaS-Plattform im Bereich Knowledge Discovery" anbietet:

Yewno, Inc. (“Yewno”) is a inference and analytics software as a service platform in the field of knowledge discovery; Yewno is the starting point that delivers infinite knowledge potential by displaying paths of information for you to navigate on your research journey. (Quelle)

Seit Juni 2016 wird das Produkt "Yewno for Education" im Beta-Stadium angeboten. Ein "Yewno for Finance" ist in Entwicklung. Hier geht es um ersteres. Eine öffentlich zugängliche Yewno-Testversion gibt es derzeit nicht. Dementsprechend habe ich den Dienst nicht testen können. Die Informationen in diesem Post stammen zum Großteil aus einem Scholarly-Kitchen-Artikel von Jill O'Neill und einem Beitrag im Rahmen der Buchmesse.

Datenbasis und Kooperationspartner

Yewno sammelt und prozessiert große Mengen von wissenschaftlichen Text, um anhand von linguistischer Datenverarbeitung und maschinellem Lernen Beziehungsnetze zu generieren, die schließlich visualisiert und durchstöbert werden können. Ein Blick auf die GitHub legt nahe, dass auch Wikipedia bzw. Wikidata einen Teil beiträgt zur Generierung der Verknüpfungen. Allerdings spielen Volltext eine zentrale Rolle und Yewno betreibt eine Menge Aufwand, um an große Mengen von Volltexten zu kommen. Laut dem genannten Buchmesse-Beitrag sind Verträge mit Oxford University Press, Stanford University Press, Springer Nature und Taylor & Francis Group geschlossen. Die Datenbasis umfasse "50 Millionen hochwertigen wissenschaftlichen Dokumenten, Artikeln und Büchern" und eine Verdopplung bis Weihnachten 2016 sei geplant. Offensichtlich zielt Yewno derzeit auf die Geisteswissenschaften, mit meta.com gibt es im STM-Bereich auch schon eine sehr ähnliche Lösung.

Acht Bibliotheken testen derzeit die Beta-Version: Harvard, Stanford, MIT, University of Michigan, University of California–Berkeley, Stonehill College, Oxford University und die Bayerische Staatbibliothek. Es verwundert nicht, dass die meisten dieser Institutionen ihre Bestände im Rahmen des Google-Book-Projekts digitalisieren. Man kann wohl davon ausgehen, dass auch diese Bestände in die Yewno-Datenbasis eingeflossen sind.

Visualisierung verknüpfter Konzepte, Snippets und Weiterleitung zum Volltext

Yewno ist als ein "Entdeckungswerkzeug" in Ergänzung zu klassischen Recherchesystemen konzipiert. Es richtet sich eher an Neulinge in einem bestimmten Gebiet, die sich zunächst einen Überblick verschaffen und dann möglicherweise tiefer einsteigen wollen. Den Kern von Yewno macht ein Netzwerk von Konzepten aus, das aus dem von Yewno zusammengetragenen Literaturkorpus generiert und anhand eines interaktiven Graphen visualisiert wird. Die Konzepte sind mit relevanten Literaturquellen verknüpft, aus denen Snippets angezeigt werden. Auf Basis des lizenzierten elektronischen – und mutmaßlich auch des gedruckten – Bestands der Bibliothek, wird der Nutzer – wenn erwünscht und vorhanden – zum Volltext geleitet.

Da ich das Tool nicht getestet habe und die YouTube-Videos wenig hergeben, kann ich nichts dazu sagen wie gut Yewno seine Versprechen erfüllt. Es scheint sich aber durchaus um einen interessanten Ansatz zu handeln, der – sei es durch Yewno oder ähnliche andere Produkte – traditionelle Discovery-Systeme in Zukunft ergänzen könnte. Schade, dass so etwas auf einer geschlossenen Datenbasis aufsetzt und nicht auf einem offenen Korpus von Open-Access-Dokumenten...

2016-06-02

Infrastrukturanforderungsbestimmung

Meinen letzten Blogbeitrag habe ich on- wie offline mit zwei Jans und mit Boris Bockelmann diskutiert (Besten Dank!).

Unter anderem ging es in den Gesprächen (wie auch im Austausch mit Boris in den Kommentaren zum Beitrag) um die Frage, ob für die dezentrale Erstellung und Synchronisierung von Metadaten ein zentraler Service nötig sei oder ob das auch dezentral funktionieren kann. Dabei ist mir eine wichtige und grundsätzliche Problematik mit Blick auf die DIPF-Infrastrukturstudie bewusst geworden: Wie so oft wird eine mehr oder weniger konkrete technische Lösung geliefert (hier: ein zentraler "Metadaten-Austausch-Service"), bevor überhaupt eine hinreichende Sammlung der Anforderungen an die OER-Infrastruktur stattgefunden hat. Zwar gibt es in der Studie einen gesonderten Abschnitt zu den Anforderungen (S.46-53), allerdings bleiben diese an der Oberfläche.

Bevor die tatsächliche Entwicklung der Infrastruktur oder die Konkretisierung ihrer Architektur beginnt, sollten die Anforderungen konkretisiert werden. Dies lässt sich z. B. anhand von User Stories tun wie im folgenden skizziert wird.

Nutzergruppen

Letztlich sind es die Anforderungen und Bedürfnisse der Nutzerinnen und Nutzer einer Infrastruktur (und nicht jene der Auftrag- oder Geldgeber, der Betreiber oder irgendwelcher anderer Akteure), die für die Ausgestaltung der Infrastruktur maßgeblich sein sollten. Somit sollten als erstes die verschiedenen Typen von Nutzern der Infrastruktur gesammelt werden. Im Falle von OER sind dies:

  • Menschen, die neue OER erschaffen und dabei unter Umständen bestehende OER überarbeiten und/oder kombinieren
  • Menschen, die nach OER suchen zum Einsatz in ihrer oder anderer Leute Bildung

Dies sind zwei sehr große und sehr heterogene Nutzergruppen. Von Grundschul- oder Förderpädagogen, bis zum Universitätsprofessor, von der an einem Thema nur beiläufig interessierten Person, über Schüler der Primär- und Sekundarstufe bis zur Doktorandin ist hier alles vertreten. Eine genauere Betrachtung der verschiedenen Untergruppen wäre sicherlich angebracht.

Erst User Stories formulieren, dann entscheiden

Zur Bestimmung der Anforderungen an eine zu entwickelnde Technologie haben sich in der agilen Softwareentwicklung User Stories etabliert. Es ist sinnvoll, zunächst eine ganze Menge User Stories aus Perspektive der verschiedenen Nutzergruppen zu sammeln, bevor man sich für oder gegen eine bestimmte Herangehensweise oder für eine bestimmte Technolologie entscheidet. Hier sind ein paar Beispiele:

Als Förderlehrerin in Deutsch möchte ich eine große Menge von Aufgaben und Übungen zum Buchstaben "A" finden, damit ich meinen Schülerinnen und Schülern über den recht langen Lernprozess abwechslungsreiche Lernmaterialien anbieten kann.

Als Lehrer möchte ich durch einen Klick auf ein "Edit"-Knopf die Ressource direkt im Browser anpassen können (Rechtschreibfehler, kleinere Anpassungen etc.), so dass ich schnell die von mir gewünschte Ressource zur Hand hab.

Als Lehrer möchte ich in einer komfortablen Webanwendung neue Arbeitsblätter erstellen, indem ich Übungen und Aufgaben aus verschiedenen Quellen kombiniere.

Als Lehrerin möchte ich von mir online erstellte Arbeitsblätter im Klassensatz ausdrucken.

Als Lehrer, der Arbeitsmaterialien zu einem bestimtmen Thema sucht, möchte ich an einer bestimmten Ressource auf andere Versionen derselben Ressource auf anderen OER-Plattformen hingewiesen werden.

Als Ersteller von OER möchte ich übersichtliche, intuitiv nutzbare webbasierte Autorenwerkzeuge, damit ich auf einfache Weise neue OER erzeugen und publizieren kann.

Als Ersteller von OER möchte ich Anforderungen an eine OER-Infrastruktur auf einfache Weise bestehende OER plus Metadaten von verschiedenen Plattformen übernehmen können, um eine angepasste Version der Ressource zu erstellen.

Als ehemalige Lehrerin möchte ich die Sammlung der von mir selbst erstellten Arbeitsblätter einscannen und unter einer offenen Lizenz für andere zur Nachnutzung publizieren.

Und so weiter. Dies sind nur ein paar Beispiele. Man sieht schnell, dass am Ende einer Sammlung von User Stories, die möglichst alle Nutzergruppen und alle Formen von OER berücksichtigt, eine sehr große Menge an User Stories zusammenkommen sollte. Diese können dann sortiert und priorisiert werden, zum einen für die Entwicklung von konkreter OER-Software, zum anderen für Entscheidungen hinsichtlich der Architektur (zentral vs. dezentral) der Gesamtinfrastruktur. Anforderungen ändern sich mit der Zeit, weshalb im Laufe der Entwicklung von Software und der OER-Infrastruktur die User Stories regelmäßig angepasst, ergänzt und neu priorisiert werden sollten.

2016-05-22

Machbarkeitsstudie zum Aufbau einer OER-Infrastruktur

Seit 2012 bin ich im Bereich Open Educational Resources (OER) aktiv, wobei mein Fokus zunächst auf Metadatenschemata und kontrollierten Vokabularen lag. Seit 2014 beschränken sich meine OER-Aktivitäten weitestgehend auf die Mitarbeit bei der Entwicklung der OER World Map. Die OER World Map ist eine Plattorm, auf der OER-Aktive aus der ganzen Welt Informationen für und über die globale OER-Community sammeln. Erfasst werden Daten über OER-Akteure und -Projekte, über Veranstaltungen und Onlineangebote im Bereich OER. Neben meiner Zuständigkeit für die Datenmodellierung übernehme ich im OER-World-Map-Team auch Aufgaben eines Product Owners.

Etwas länger noch befasse ich mich immer wieder mit der Weiterentwicklung der überregionalen Informationsinfrastruktur in Deutschland. 2011 habe ich etwa die Intransparenz des Neustrukturierungsprozesses beklagt, den der Wissenschaftsrat begonnen hatte, um ihn gemeinsam mit der Deutschen Forschungsgemeinschaft (DFG) weiterzuführen. 2012 habe ich selbst an einem DFG-Antrag (libOS) zum Thema mitgeschrieben und den letztlich erfolgreichen Antrag 2013 einer kritischen Analyse unterzogen.

In Anbetracht dieser Aktivitäten überrascht es nicht, dass ich sehr am Prozess und Ergebnis der Entwicklung einer überregionalen technischen Infrastruktur für OER im deutschsprachigen Raum interessiert bin, fließen darin doch gewissermaßen zwei meiner Interessengebiete zusammen. Da einige Entwicklungen im Hinblick auf die zukünftige OER-Infrastruktur stattgefunden haben, wird es Zeit, eine Zwischenbilanz zu ziehen.

Im letzten Jahr wurde das Deutsche Institut für Internationale Pädagogische Forschung (DIPF) vom Bundesministerium für Bildung und Forschung (BMBF) beauftragt eine Machbarkeitsstudie zum Aufbau einer OER-Infrastruktur in Deutschland zu erstellen. Neben einer Literaturanalyse wurden für die Studie Experteninterviews sowie Workshops durchgeführt. Am 10. Februar hat das DIPF das Ergebnis veröffentlicht, das hier einer näheren Betrachtung unterzogen wird.

Ich gehöre zu den für die Studie interviewten Personen, habe an einem der Workshops teilgenommen habe und Rückmeldungen zu einem Entwurf der Studie gegeben. Außerdem habe ich auf dem OER-Fachforum am 1. März 2016 in Berlin an einem "Thementisch" mit den Machern des Papiers und anderen Personen darüber diskutiert. Somit werden meine inhaltlichen Anmerkungen die Verfasser der Studie kaum überraschen. Alle Seitenangaben beziehen sich auf Deutscher Bildungsserver: Machbarkeitsstudie zum Aufbau und Betrieb von OER-Infrastrukturen in der Bildung (Stand: Februar 2016). 2016, 66 S. - URN: urn:nbn:de:0111-pedocs-117154.

Der Auftrag

Die Studie ist im Auftrag des Bundesministerium für Bildung und Forschung (BMBF) entstanden. Die Leistungsbeschreibung bzw. Auftragstexte sind zwar nicht bekannt und wurden – laut Christian Füller – auch auf Nachfrage nicht vom Ministerium herausgegeben. Allerdings gibt der Text der Studie selbst einigen Aufschluss. Ganz offensichtlich möchte das BMBF in OER investieren. So sei die Studie dadurch motiviert, "Bedarf, Voraussetzungen und Zielrichtungen einer öffentlichen Förderung freier Bildungsmaterialien" (S.5) zu konkretisieren. Die Aufgabe lautet, "Bedingungen und Erfordernisse für Aufbau und Betrieb einer OER‐Infrastruktur im Internet" zu untersuchen "im Dialog mit Expertinnen und Experten aus Bildungspraxis, Bildungsadministration und Wissenschaft, mit Akteuren der OER‐Bewegung sowie mit Medienproduzenten und ‐anbietern" (S.5).

Es geht also um "Infrastruktur". Das ist das, was idealerweise unsichtbar ist, was erst bemerkt wird, wenn es nicht funktioniert (wie z.B. die Stromversorgung, das DSL-Netz, OSI-Protokolle oder Zeichenkodierungen). Im Falle einer Dateninfrastruktur geht es um Daten, um Protokolle und Schnittstellen, um Software etc.

Ergebnisse/Empfehlungen der Studie

Im Folgenden werde ich nun sechs zentrale Empfehlungen des DIPF-Machbarkeitspapiers näher betrachten.

Absage an ein länderübergreifendes OER-Portal

Auf S.4 heißt es: "Aufbau und Betrieb einer zentralen Infrastruktur, im Sinne eines einzelnen Repositoriums bzw. Referatoriums, für OER über alle Bildungsbereiche hinweg stellen keine realistische Option dar". Ich bin sehr froh, dass dies so deutlich ausgesagt wird, findet sich doch noch im Bericht der OER-Arbeitsgruppe, der der Machbarkeitsstudie als "Orientierungsrahmen" diente, eine Empfehlung zum "Aufbau einer neuen bzw. die Unterstützung bereits bestehender länderübergreifender Plattformen im Internet" (Bericht der OER-Arbeitsgruppe, S.8).

Aus meiner Erfahrung neigt die Politik bisher gerne dazu, zentrale "Portale" zu fördern (z.B. vascoda, Europeana, Deutsche Digitale Bibliothek). Problematisch ist dies, weil meist die Ressourcen auf Ebene der Dienste fehlen, die eigentlich die Inhalte bereitstellen und dass ein enormer Aufwand betrieben werden muss, um die Metadaten einzusammeln und in eine einheitliche Struktur zu bekommen. Dazu kommen die Hemmnisse, die die föderale Struktur Deutschlands mit sich bringt. (Fördert man dagegen die Anwendung geteilter Standards und Schnittstellen bei den verschiedenen Diensten ist am Ende der Aufbau eines übergreifenden Rechercheangebots weniger aufwändig.)

Statt eines zentralen Angebots befürwortet die Studie die "Vernetzung bestehender (Teil-))Infrastrukturen", wozu als zentrale Komponente der Aufbau eines "Metadaten-Austausch-Services" (MDAS)(S.4) empfohlen wird. Hier schleicht sich also unter Umständen doch eine länderübergreifende Infrastrukturkomponente hinein. Ich werde dies weiter unten genauer betrachten.

Förderung von Repositorien und Nachweissystemen

Die erste der auf S.4 genannten "zentralen Empfehlungen" lautet:

Fördermaßnahmen sollten Anreize für den Aufbau bzw. die Vernetzung von Repositorien und Nachweissystemen in bislang wenig OER‐aktiven Handlungsfeldern schaffen (z.B. berufliche Bildung, Erwachsenenbildung).

Es wird also empfohlen, fach- oder bildungsbereichspezifische Systeme aufzubauen

  1. für die Publikation von OER und sie beschreibender strukturierter Metadaten im Web (Repositorien) sowie
  2. für die Rechereche nach OER (läuft unter dem relativ neuen, aus dem OER-Bereich kommenden Terminus "Referatorium" )

Förderung des Aufbaus digitaler Materialbestände

Die größere Herausforderung als der Aufbau einer technischen Infrastruktur ist die Entwicklung einer OER-Kultur. Damit meine ich, dass OER-Inhalte in der Breite von Lehrenden und Lernenden produziert, gepflegt, geremixt und in vielfältigen Bildungskontexten genutzt werden. Diese Frage, wo die Inhalte letztlich herkommen, wer sie erstellt und pflegt, ist nicht unbedingt von einem Infrastrukturpapier zu beantworten – es geht ja nicht um social enginieering. Dennoch nimmt die zweite "zentrale Empfehlung" darauf Bezug:

Empfohlen wird der Aufbau von digitalen Materialbeständen i.S.v. Referenzsystemen für OER zu pädagogisch oder bildungspolitisch besonders relevanten Themen (z.B. Inklusion, frühe Bildung, Alphabetisierung).

Wie dies genau umgesetzt werden soll, wird allerdings nicht näher erläutert. Die schwierige und grundlegende Frage, wie ein Wachstum von OER-Produktion und -Nutzung angeregt und die Entstehung einer nachhaltigen OER-Community gefördert werden kann, soll allerdings im die DIPF-Studie flankierenden, auch vom BMBF geförderten Projekt Mapping OER adressiert werden.

Interoperable Metadaten und Metadaten-Austausch-Service

Die dritte "zentrale Empfehlung" lautet wie folgt:

Bestehende OER‐Plattformen sollten um systematische Zugänge, Zugangsvokabulare für unterschiedliche Fächer und Arbeitsinstrumente ergänzt werden, die die Adaption der Materialien in anderen Bildungskontexten unterstützen. Fördermaßnahmen sollten an die Bereitstellung technischer Schnittstellen und interoperabler Metadaten geknüpft werden, welche für die Realisierung eines Metadaten‐Austausch‐Services (s.u.) notwendig sind.

Diese Forderungen lassen die Herzen von Bibliothekarinnen und Bibliothekaren höher schlagen, wird doch für die Inhaltserschließung die Nutzung geteilter kontrollierter Vokabulare und Klassifikationen (Normdaten) gefordert sowie die Bereitstellung von Schnittstellen zum Einsammeln der damit entstehenden Daten.

Was es aber mit dem Metadaten-Austausch-Service genau auf sich hat und welche Aufgabe er erfüllt bleibt unklar. In der Studie wird er als "zentraler", "aggregierender" "Hintergrunddienst" charakterisiert, der folgende Aufgaben übernimmt:

  • Er sammelt die Metadaten aus den deutschen OER-Referatorien regelmäßig ein (Aggregation).
  • Die verschiedenen Metadaten werden in eine gemeinsame Zielstruktur überführt (Normalisierung) und ggf. automatisch angereichert.
  • Der so entstehende übergreifende Metadatenpool wird zum Download und über Schnittstellen angeboten.

Es ist etwas verwunderlich, dass zum einen von einem zentralen OER-Referatorium abgeraten wird und zum anderen mit dem MDAS ein Service empfohlen wird, der anscheinend eine Menge der nötigen Vorarbeiten für ein solches zentrales Portal leistet.

Einige Skepsis im Hinblick auf die Notwendigkeit sowie leichte Umsetzbarkeit und Pflege des MDAS ist sicher angebracht. Allerdings adressiert das Design des MDAS zumindest eine wichtige Frage einer jeden Dateninfrastruktur, die auch mit nutzergenerierten Daten zu tun hat: Wie bekomme ich Menschen dazu in einer verteilten Infrastruktur kleiner Services, Ressourcen zu taggen und zu bewerten? Prinzipiell ist es überhaupt schwierig eine kritische Masse von Menschen aufzubauen, die Tags und Bewertungen vergeben, wenn man nicht schon eine so große Nutzerschaft wie etwa Amazon hat. Im Bibliotheksbereich ist der Katalog-2.0-Hype zumindest in Bezug auf nutzergenerierte Inhalte nach einigen Jahren vergangen, weil innerhalb der Nutzerschaft eines Bibliothekskatalog eben keine kritische Masse hergestellt werden kann. Bessere Chancen bestehen, wenn die nutzergenerierten Inhalte zwischen verschiedenen Katalogen/Referatorien augetauscht werden. So tauchen dieselben Daten überall auf, wo eine Ressource recherchierbar ist und die Chance, dass Nutzer/innen Lust bekommen, selbst zu taggen oder kommentieren, wird größer. Siehe auch einen Blogpost von 2012, in dem ich gewissermaßen mit der Idee eines Metadaten-Austausch-Service für moderne Bibliothekskataloge gespielt habe.

Auch wenn der MDAS also durchaus ein sinnvolles Ziel verfolgt, bin ich mir nicht sicher, ob dazu wirklich ein zentraler Dienst notwendig ist. Mir scheint als wären die Verfasser/innen am DIPF hier stark von ihren Erfahrungen im Rahmen der vom DIPF betriebenen Suchmaschine ELIXIER beeinflusst. ELIXIER stellt auch einen zentrale Datenaggregationsdienst dar. In der Beschreibung der ELIXIER-Historie heißt es:

ELIXIER – was übrigens für "Elaborated Lists in XML for Internet Educational Ressources" steht – startete im Mai 2007 mit dem Ziel, eine standardisierte Schnittstelle für den Austausch von Metadaten zwischen den deutschen Bildungsservern zu entwickeln und damit einen gemeinsamen Ressourcenpool für Lehr-/Lernmaterialien – insbesondere für den Schulunterricht – bereit zu stellen.

Meines Erachtens sollten auch Möglichkeiten genauer betrachtet werden, auf einen zentralen Mittler wie den MDAS zu verzichten und die Daten direkt zwischen den einzelnen Services auszutauschen.

Freie Software als Voraussetzung einer Förderung

Die DIPF-Machbarkeitsstudie empfiehlt als Voraussetzung der Förderung – neben strukturierten Metadaten und technischer Schnittstellen zum Datenaustausch –, dass neue Softwaresysteme als freie Software entwickelt werden sollten. So heißt es auf den Seiten 58 und 62: "Die Förderung [von Repositorien und Referatorien, A.P.] sollte gebunden sein an die Entwicklung der betreffenden Systeme als Open‐Source‐Produkt , um eine Nachnutzung für andere Einrichtungen zu gewährleisten." Diesen Punkt darf man meines Erachtens nicht unterschätzen. Dadurch werden – im Falle eines Erfolgs von OER und der entwickelten Open-Source-Systeme – Abhängigkeiten von kommerziellen Anbietern proprietärer Systeme verhindert.

Transparente Koordination & Kommunikation

Als ein wünschenswertes Ziel nennt die Studie "eine kontinuierliche Abstimmung" der einzelnen, an der OER‐Infrastruktur beteiligten Dienste. "Die Realisierung koordinierter Kommunikationsprozesse und konsensfähiger Workflows ist als zentrales Kriterium für den erfolgreichen Aufbau einer nachhaltig funktionsfähigen ... Infrastrukturbildung zu betrachten". (S.65)

Mit anderen Worten, die beteiligten Akteure sollen sich beim Aufbau der Infrastruktur austauschen, damit eine einheitliche Praxis bei der Er- und Bereitstellung der Daten entstehen möge.

Das Papier schlägt zu diesem Zweck vor, drei Gremien einzurichten:

  1. eine Koordinierungsstelle. die "interoperable Strukturen und Workflows zwischen den beteiligten Anbietern" entwickelt, "um die Interaktion der unterschiedlichen Repositorien, Referatorien und eines zentralen Hintergrunddienstes zu koordinieren",
  2. ein OER-Beirat soll die Koordinierungsstelle fachlich unterstützen, indem "Vertreter/inne/n aller Bildungsbereiche" Metadatenstandards und Schnittstellen abstimmen sowie
  3. ein Runder Tisch, der ein "regelmäßiges offenes Diskussionsforum" darstelle, in dessen Rahmen "auf der Basis z.B. von Arbeitsgruppen oder Workshops innovative Vorhaben zur Weiterentwicklung OER‐förderlicher Infrastrukturen konzipiert".

Wenn ich das richtig verstehe soll die Koordinierungsstelle mit fachlicher Unterstützung des OER-Beirats die technischen Vorgaben der OER-Infrastruktur spezifizieren, deren Anpassung und Weiterentwicklung am "Runden Tisch" diskutiert wird. Ich halte es für etwas verfrüht, für den Austausch direkt drei formale Gremien vorzuschlagen, weil man erst einmal schauen sollte, wieviele und welche Akteure sich überhaupt beteiligen. Zudem halte ich andere Punkte im Kontext der kooperativen Entwicklung einer gemeinsamen Praxis – die ich in einem gesonderten Beitrag aufzählen werde – für viel wichtiger.

Fazit

Zwar wird der Entstehungsprozess der Studie zurecht kritisiert. Diese Kritik sollte auch ernstgenommen und es sollte daraus gelernt werden. Dennoch scheint mir das ziemlich gut zu laufen im Vergleich zu Prozessen der Planung, Förderung und Entwicklung von Dateninfrastrukturen in anderen Bereichen.

Insgesamt stimmt mich der Inhalt der Studie weiterhin sehr optimistisch, was den Aufbau der OER-Infrastruktur angeht. Insbesondere folgende Punkte sind hervorzuheben:

  • die Absage an ein länderübergreifendes OER-Portal,
  • die Empfehlung, Förderung an die Nutzung und Entwicklung von freier Software zu binden,
  • die Tatsache, dass viele Überlegungen gemacht werden – und das nicht erst seit dieser Studie – hinsichtlich Metadatenschemata, geteilten Klassifikations- und Verschlagwortungssystemen und Schnittstellen, die die einfache Zusammenführung verteilt vorliegender Metadaten sicherzustellen, mit dem Ziel das Auffinden relevanter OER zu verbessern.

Man darf gespannt sein, wie sich der weitere Prozess gestaltet.

2016-02-23

Werbung & Lobbying mit Open Educational Resources

Bei der Recherche für einen anderen Blogpost bin ich auf das Whitepaper “Unternehmensfinanzierte Open Educational Resources (OER) an Schulen” gestoßen, das vor kurzem von YAEZ – einer auf “Corporate Publishing für junge Zielgruppen” spezialisierten Agentur – publiziert wurde. YAEZ hat beispielsweise in der Vergangenheit – kostenlose aber (noch) nicht offen lizenzierte – Unterrichtsmaterialien zum Thema “Vernetzte Mobilität – Die digitale Revolution auf Rädern” erstellt, bezahlt von der Initiative “Unsere Autos” des Verbands der Automobilindustrie (VDA). [1]

Das Whitepaper wird auf den YAEZ-Seiten auch unter dem Titel “Erfolgsfaktoren für OER in der Bildungskommunikation” beworben. Hier einige der im Whitepaper genannten Vorteile für Unternehmen, die eine Publikation von OER brächten: “Image verbessern”, “Bekanntheit steigern”, “Inhalte beeinflussen”, “positives Bild vermitteln”, “Kunden gewinnen”, “Gewinn steigern”, “Gewinnung von qualifizierten und geeigneten Auszubildenden”.

Seit langem schon betrachten Unternehmen die Schulen als wichtiges Ziel von Lobbying und Werbung, und das Angebot und die Nutzung durch Unternehmen bereitgestellter Unterrichtsmaterialien nimmt stetig zu, wie etwa gerade ein Beitrag in der letzten Heute Show aufzeigt (siehe auch die dazugehörige “Fakten”-Seite mit weiterführenden Links). Von Unternehmen finanzierte offen lizenzierte Unterrichtsmaterialien sind allerdings bisher noch selten. Wenn die Zahl der Unternehmens-OER aber so rapide wächst wie jene der nicht-offenen (aber kostenlosen) Unterrichtsmaterialien, dann werden die bisher hauptsächlich durch Lernende, Lehrende und öffentliche Bildungseinrichtugen erstellten und gepflegten Open Educational Resources bald Konkurrenz bekommen.

[1] Angeblich platziert YAEZ seine Produkte auch auf lehrer-online, ich habe allerdings auf Anhieb die VDA-Materialien oder andere von YAEZ genannte Beispielmaterialien dort nicht finden können.

2015-12-08

Does GND define authoritative headings?

I already wrote about authority files. In that post I said about Integrated Authority File (GND) which is "operated cooperatively by the German National Library, all German-speaking library networks, the German Union Catalogue of Serials (ZDB) and numerous other institutions" (source):

In the Integrated Authority File a numeric ID (GND ID) is used to identify an authority record. Likewise, each bibliographic record that references this authority record uses the GND ID.

Furthermore, I would even say that this ID is kind of the authoritative "heading" that enables searching for resources about Princess Diana in every data base that uses GND. But a heading in the sense of an authoritative string that all GND users use to refer to Princess Diana does not exist.

On the verge of an edit war ;-)

In December 2013 I had already edited the Wikipedia entry on "Authority Control" to reflect this practice (Edit 1).

Wikipedia user Gymel (Thomas Berger) doesn't agree as you can see by his reverts of my changes (Edit 2, Edit 4 after I put the GND ID back in Edit 3). As this topic can hardly be discussed in Wikipedia commit messages I am writing this post to provide some evidence for my thinking in the hope that the Wikipedia entry will be corrected (once again) soon.

What are "headings", anyway?

Wikipedia says:

In library science, authority control is a process that organizes library catalog and bibliographic information by using a single, distinct name for each topic. The word authority in authority control derives from the idea that the names of people, places, things, and concepts are authorized, i.e., they are established in one particular form. These one-of-a-kind headings are applied consistently throughout the catalog, and work with other organizing data such as linkages and cross references.

In short, headings are authorized names that

  1. are applied consistently throughout the catalog and
  2. are used for linkages and cross references.

With regard to GND (and many other authority files), one would have to adjust point 1: As there is no one catalog GND is maintained for, it should rather read "applied consistently throughout catalogs". Accordingly, below I will have a look at many catalogs from different GND users to see whether there is consensus on one authoritative heading across these different catalogs.

With regard to Geman-speaking cataloging practice, I argue that

  1. no authoritative name strings exist that are applied across catalogs of all GND users, but authoritative strings may only exist within a single catalog
  2. linkages and cross references are exclusively managed by using the GND ID and not a string.

Evidence

Below I am providing some evidence for the two points I made above.
Usage of different headings for presentation purposes

Taking our example Princess Diana (GND ID 118525123), I looked at several data sources to see which heading they use. Interestingly, you just have to look at different representations of the authority record from the German National Library (DNB) alone and will already find different headings in use:

The DNB-OPAC uses Diana, Wales, Prinzessin. We might think that this is the authoritative string. The GND RDF provided by DNB using the GND ontology defines both a "preferred name entity" and a "preferred name". We can already find a differrence here – at least in punctuation:


<http://d-nb.info/gnd/118525123>
        gndo:preferredNameEntityForThePerson [
            gndo:epithetGenericNameTitleOrTerritory "Wales, Prinzessin"^^<http://www.w3.org/2001/XMLSchema#string> ;
            gndo:personalName "Diana"^^<http://www.w3.org/2001/XMLSchema#string>
        ] ;
    gndo:preferredNameForThePerson "Diana <Wales, Prinzessin>"^^<http://www.w3.org/2001/XMLSchema#string> .

Taking a look at the DNB-MARC, we can see that birth and death date sneak into the heading (I may be wrong here as I am not very familiar with MARC, really):


        <datafield tag="100" ind1="0" ind2=" ">
            <subfield code="a">Diana</subfield>
            <subfield code="c">Wales, Prinzessin</subfield>
            <subfield code="d">1961-1997</subfield>
        </datafield>

We will also find headings for Princess Diana (GND ID 118525123) that include birth and death dates in data bases of other GND maintainers:

hbz union catalogue: Diana, Wales, Prinzessin, 1961-1997"

GBV union catalogue: Diana <Wales, Prinzessin> *1961-1997*

SWB union catalogue actually has two different headings: Diana, Wales, Prinzessin [1961-1997] and recorded as "Ansetzung Landesarchiv BW": Wales, Diana; Prinzessin; 1961 - 1997 | 118525123

Kalliope (for example this record): Diana <Wales, Princess> (1961-1997)

At last we have two entries that follow the different punctuation versions of the DNB.

HeBIS (e.g. this record): Diana, Wales, Prinzessin

BVB: Diana <Wales, Prinzessin>

Usage of GND IDs for linking

This should be clear to everyone that name strings aren't used for linking to GND entries. As example, I only point to the wide-spread practice of creating beacon files to point to ones catalogued resources on the basis of GND IDs: https://de.wikipedia.org/wiki/Wikipedia:BEACON.

tl;dr

The Integrated Authority File (GND), operated cooperatively by a large group of libraries and library service centers in German-speaking countries, does not define authoritative name strings (= headings) to be used across the different catalogs of GND users.

2015-10-26

Bibliotheksbärendienst, die Dritte

Eigentlich wollte ich doch bereits mit dem vorletzten Beitrag mein Soll für dieses Jahr erfüllt haben. Mindestens ein weiterer Beitrag ist aber offensichtlich noch nötig...

Was lief

Nach meinem Beitrag vom Mittwochabend bekam ich Freitagmorgen eine E-Mail von der Person, deren E-Mail ich in meinem Blog zitiert hatte, mit einer unbegründeten Aufforderung, die Angaben aus Ihrer Nachricht und ihren Namen umgehend von meinem Blog zu löschen. Da mir so etwas bisher nicht passiert ist, versetzte mich die Sache in ganz schöne Aufregung. Ein befreundeter Jurist und ich versuchten in kurzer Zeit, die rechtliche Lage einzuschätzen, insbesondere lasen wir auch diesen Text von Thomas Stadler, der im folgenden noch desöfteren genannt werden sollte.

Auch wenn wir beide die Lage so einschätzten, dass mein Zitat höchstwahrscheinlich keine rechtlichen Folgen haben könnte, empfahl mein Freund mir, es vorerst aus dem Blog zu nehmen. Schließlich sei die Sache nicht sicher, so "beispielsweise das Landgericht Köln regelmäßig auch die Veröffentlichung von Briefen, die berufliche oder geschäftliche Fragen betreffen, für unzulässig hält" wie es in dem genannten Text heißt. Ich ersetzte den Text durch eine Anmerkung, dass ich zur Löschung aufgefordert worden war und informierte De Gruyter. Meine Reaktion lässt sich zum einen damit erklären, dass mir schlicht die Gelassenheit und Standhaftigkeit für einen souveränen Umgang mit der Sache gefehlt haben. Zum anderen war es mir aber mittlerweile auch unangenehm, den Absendernamen genannt zu haben. Klaus Graf hatte zwar bereits auch einen Beitrag zu der Sache veröffentlicht, so dass also die Sache ohnehin nicht mehr rückgängig zu machen war – allerdings ohne den Namen zu nennen.

Die Sache ließ mir aber nach der Löschung keine Ruhe und ich war schnell unzufrieden, der Aufforderung ohne Notwendigkeit nachgekommen zu sein. Ich schrieb eine weitere E-Mail an De Gruyter, in der ich darstellte, dass die derzeitige Lage für keinen zufriedenstellend sei. Mit Verweis auf den Stadler-Text wies ich auf die Rechtmäßigkeit meines Vorgehens hin und schlug vor, das Zitat ohne Nennung des Absenders wieder in den Beitrag aufzunehmen. Auch wies ich De Gruyter darauf hin, dass sie am Streisand-Effekt kein Interesse haben dürften. Die nächste De-Gruyter-Antwort kam dann von der nächsthöheren Hierarchieebene in einem deutlich gelasseneren Ton. Es hieß nun, De Gruyter habe sich von Anfang nicht an der Wiedergabe der Verlagsposition in meinem Blogbeitrag gestört, sondern lediglich an dem direkten Zitat aus einer Geschäftsmail. Eine Paraphrase des Mail-Inhalts wäre nie als ein Problem angesehen worden. Bisher – so teilte ich De Gruyter daraufhin mit – habe sich die Sache für ich ganz anders angehört, schließlich lautete der Betreff der ersten E-Mail "Aufforderung zum Löschen" und nicht "Aufforderung zum Paraphrasieren". Was da bei De Gruyter wirklich ablief, kann ist jede/r eingeladen, sich selbst auszumalen.

Offensichtlich hatten sie auch eine Löschaufforderung an Klaus Graf geschrieben, der dies sofort auf Inetbib publik machte. Ich aber wollte die Sache hinter mich bringen und entschied mich zum zweiten, aktuellen Update des Blogposts inklusive Paraphrase der E-Mail. So weist der Text zumindest keine Lücke mehr auf und lädt zur Diskussion des eigentlichen Sachverhalts ein. Ich twitterte das Update und sendete eine Mail an Inetbib.

Was kam

Im folgenden haben sich Klaus Graf – der zunächst zur Solidarität mit mir aufgerufen hatte – und Dietrich Pannier zur Löschung kritisch geäußert und auch Eric Steinhauer wies mich auf Twitter darauf hin, dass ich das Recht auf meiner Seite habe und es sich lediglich um "Stilfragen" handele.

Klaus Graf hat sogar einen Überblick über die Rechtsprechung und Literatur zum Thema erstellt und kommt zu dem Schluss:

Grundsätzlich ist bei der Veröffentlichung fremder E-Mails trotzdem Vorsicht geboten. Aber bei harmlosen Fällen wie der Causa De Gruyter sind übermäßige Ängste nicht am Platz. Eindeutig war die Stellungnahme des Bibliotheksjuristen Dietrich Pannier in INETBIB:

http://www.inetbib.de/listenarchiv/msg56677.html

Pohl habe mit dem Zitat "weder Latten der Höflichkeit noch des Rechts gerissen [...]. Man kann es auch so empfinden, dass der forsche, aber rechtlich unbeachtliche Vorhalt des Verlag geeignet sein könnte, weitere Personen von Anfragen abzuhalten."

Ich gebe Klaus Graf und Dietrich Pannier recht. Niemand sollte generell auf ein Zitieren von E-Mails zu verzichten, und ich rate, bei einer solchen Reaktion Ruhe zu bewahren und nicht voreilig zu löschen. Am besten macht man sich schon vor der Veröffentlichung von E-Mailzitaten im Web mit der Rechtslage vertraut. Da die Sache nun einmal so gelaufen ist, belasse ich es dabei und kann mich damit trösten, eine ganze Menge dabei gelernt zu haben.

Was bleibt

So wichtig Diskussionen darüber sind, ob und wie man am besten E-Mails im Web zitiert, wichtiger ist es, dass es auch in der Sache weitergeht. Die von mir im letzten Beitrag gestellte Frage ist für mich immer noch nicht abschließend beantwortet. Ich habe unterschiedliche Meinungen zur Rechtslage in Bezug auf das kostenpflichtige Angebot von Bibliotheksdienstartikeln durch De Gruyter gehört. Klaus Graf bezeichnet dies als Verstoß gegen das Urheberrecht:

Eine Retrodigitalisierung ohne Zustimmung des Autors bei Zeitschriften, bei denen nicht ausdrücklich ausschließliche Nutzungsrechte über das eine Jahr des § 38 UrhG hinaus übertragen wurden, ist auch mit Blick auf § 137 L UrhG ein Verstoß gegen das Urheberrecht.

Absichern lässt sich das auch mit der Zweckübertragungslehre:

https://de.wikipedia.org/wiki/Zweck%C3%BCbertragungslehre

Eric Steinhauer hält das Angebot für legal und verweist in einer direkten Nachricht an mich auf Jani, in: Wandtke/Bullinger, § 137l, Rn. 14, wo es heißt:

Sofern der Vertragspartner die Nutzungsrechte in dem von § 137l geforderten Umfang erworben hat, kann er die Sammlung und die in ihr enthaltenen Einzelwerke ... digital herausbringen (Schulze UFITA 2007/III, 641, 691). Ein juristischer Fachverlag darf so z. B. ältere Jahrgänge einer Zeitschrift auf DVD oder in einer Online-Datenbank anbieten. Bezogen auf die einzelnen Werke ist diese Befugnis wegen § 38 nicht exklusiv.

Steinhauers Fazit: "DeGruyter kann also digitalisieren, aber die Autoren der Althefte dürfen ihre Artikel weiterhin online stellen." (Siehe dazu auch den Kommentar von Klaus Graf als Antwort auf Bernhard Mittermaiers Anfrage.)

Ich kann und möchte das rechtlich nicht beurteilen und habe keine Zeit und Lust, mich näher damit auseinanderzusetzen. Da hier gegensätzliche Meinungen vorliegen, fänd ich es angemessen, wenn auch De Gruyter sich zu der Sache äußert und die rechtlichen Erwägungen darlegt, die einer kommerziellen Re-Publikation der Bibliotheksdienstbeiträge vorausgingen. Eventuell gibt ja demnächst auch der Vertrag zwischen der ZLB und De Gruyter zur Übergabe des Bibliotheksdienst Aufschluss über die Sache. Klaus Graf hat eine Informationsfreiheitsanfrage diesbezüglich gestellt...

Was tun

Ich sehe drei Handlungsfelder.

  1. Es scheint klar zu sein, dass alle Autorinnen und Autoren ihre Bibliotheksdienst-Artikel anderswo online stellen können. Ich würde mich freuen, wenn in nächster Zeit mehr und mehr Artikel unter CC0, CC-BY oder CC-BY-SA im Netz auftauchen würden. Es gibt dazu verschiedenste Plattformen. Ich habe in der Vergangenheit am liebsten E-LIS benutzt, da dauert eine Publikation aber eine ganze Weile (Ist halt von und für Bibliothekar/innen ;-). Ansonsten gibt es auch eine Menge anderer Dienste wie ResearchGate, die eine Publikation von Artikeln im Web ermöglichen. (Man sollte nur darauf achten, nicht so etwas wie Scribd oder Academia.edu zu benutzen, wo ein Download Konto und Login beim jeweiligen Dienst voraussetzen.)
  2. Die Referenzierung von Closed-Access-Artikel bei De Gruyter sollte vermieden werden, insofern es eine frei zugängliche Version desselben Textes gibt. Zwar sind die bei De-Gruyter angebotenen Artikel aus verschiedenen Gründen eine deutlich attaktivere Referenz in einem Artikel als etwa ein Link auf das ZLB-Archiv (siehe dazu meinen Kommentar). Da die De-Gruyter-Version nicht Open Access ist, ist das ZLB-Archiv aber vorzuziehen.
  3. Vergangene Veröffentlichungen im Bibliotheksdienst oder anderweitige Nicht-Open-Access-Publikationen lassen sich zwar nicht mehr rückgängig machen, allerdings lässt sich Closed Access bei zukünftigen Publikationen leicht verhindern. Ich kann nur unterstreichen, was Christian Hauschke dazu auf Infobib geschrieben hat:

    Wer offene Fachkommunikation befördern möchte – und nur offene Fachkommunikation ist in meinen Augen tatsächlich stattfindende Fachkommunikation – hat eigentlich keine Ausrede mehr. Egal, ob man sich mit der Schweizer Verbundlandschaft, mit Problemen beim Einsatz von Textvergleichsprogrammen zur vermeintlichen Plagiatsvermeidung, mit sozialer Bibliotheksarbeit, Anforderungen an einen Fachinformationsdienst, RFID in Bibliotheken oder mit Barrierefreiheit für Digitale Bibliotheken beschäftigt: Es gibt eigentlich kein Thema mehr, für das sich nicht ein Ort außerhalb der früher mal üblichen Zeitschriften finden würde. Schön wäre dann noch der Schritt weg von den sattsam bekannten Sammelbänden, die meist doch eh nur Artikelsammlungen sind, hin zu Themenschwerpunkten in OA-Zeitschriften.

2015-10-21

Wie werden Nutzungsrechte übertragen?

Wie in meinem letzten Beitrag angekündigt, hatte ich eine Mail an De Gruyter geschrieben mit dem Wunsch, dass mein Bibliotheksdienstartikel von 2009 nicht weiter auf der De-Gruyter-Webseite gegen einen Betrag von 30 Euro angeboten würde. Am 9. Oktober erhielt ich eine Antwortmail von De Gruyter.

Update II: Nachdem ich das ursprüngliche Original-E-Mail-Zitat an dieser Stelle nach einer Aufforderung von De Gruyter zum Löschen desselben heute (2015-10-23) morgen ersatzlos entfernt hatte (Update I), hat De Gruyter mir erklärt, dass es sich ausschließlich an meinem Zitieren von Geschäftsmails gestört hätte, wo eine Paraphrasierung der Verlagsposition geboten gewesen wäre. Ich entschuldige mich hiermit insbesondere für die ursprüngliche Nennung des Absendernamens – das ist in der Tat kein guter Stil – und komme dem Wunsch nach Paraphrasierung nach:

In der E-Mail hieß es, ZLB und De Gruyter hätten vertraglich vereinbart, dass die Bibliotheksdienstes-Jahrgänge von 1967 bis 2012 von De Gruyter retrodigitalisiert[*] und anschließend gegen Geld im Web angeboten werden könnten. Die ZLB habe somit diese Verwertungsrechte an De Gruyter übertragen.

Die Antwort von De Gruyter wirft in meinen Augen die grundlegende Frage auf, ob die ZLB die Verwertungsrechte für die Jahrgänge 1996 bis 2012 überhaupt je besessen hatte, die sie an De Gruyter verkauft haben soll. Soweit ich weiß, gab es keine schriftlichen Verträge zwischen der ZLB und den Autor/innen, ich zumindest habe so etwas nie unterzeichnet. Was es gab, war die dokumentierte Publikationspraxis, dass Artikel zunächst in der Printfassung und drei Monate später frei zugänglich im Web veröffentlicht wurden. So hieß es etwa noch im August 2012 auf der Startseite des Bibliotheksdienst (Wayback Machine): "Die Beiträge der Rubrik "Themen" der einzelnen Hefte werden drei Monate nach Erscheinen der Druckausgabe online im PDF-Format veröffentlicht, die Stellenanzeigen ca. 14 Tage nach Erscheinen der Druckausgabe." Vor diesem Hintergrund halte ich es für zweifelhaft, dass die ZLB alle wesentlichen Nutzungsrechte an den abgelieferten Artikeln erhalten hat, was sicher notwendige Voraussetzung ist, um sie an De Gruyter veräußern zu können.
Mich würde interessieren, wie die rechtliche Situation von Menschen eingeschätzt wird, die sich mit Nutzungsrechtfragen besser auskennen.

Was indes den von mir verfassten Text angeht, kann ich – auch wenn ich die Argumentation rechtlich fragwürdig halte – niemanden davon abhalten, ihn gegen Geld zu verbreiten. Schließlich habe ich den Artikel selbst unter CC-BY lizenziert, was wiederum voraussetzt, dass ich – und damit andere Autor/innen wohl auch – die ausschließlichen Nutzungsrechte nicht an die ZLB abgegeben habe...

[*] Auf meine Nachfrage hin wurde bestätigt, das tatsächlich die gedruckten Hefte aller Jahrgänge des Bibliotheksdienst digitalisiert worden seien, auch die Jahrgänge 1996 bis 2012, deren Artikel bereits in durchsuchbarer elektronischer Form vorlagen.