2016-05-22

Machbarkeitsstudie zum Aufbau einer OER-Infrastruktur

Seit 2012 bin ich im Bereich Open Educational Resources (OER) aktiv, wobei mein Fokus zunächst auf Metadatenschemata und kontrollierten Vokabularen lag. Seit 2014 beschränken sich meine OER-Aktivitäten weitestgehend auf die Mitarbeit bei der Entwicklung der OER World Map. Die OER World Map ist eine Plattorm, auf der OER-Aktive aus der ganzen Welt Informationen für und über die globale OER-Community sammeln. Erfasst werden Daten über OER-Akteure und -Projekte, über Veranstaltungen und Onlineangebote im Bereich OER. Neben meiner Zuständigkeit für die Datenmodellierung übernehme ich im OER-World-Map-Team auch Aufgaben eines Product Owners.

Etwas länger noch befasse ich mich immer wieder mit der Weiterentwicklung der überregionalen Informationsinfrastruktur in Deutschland. 2011 habe ich etwa die Intransparenz des Neustrukturierungsprozesses beklagt, den der Wissenschaftsrat begonnen hatte, um ihn gemeinsam mit der Deutschen Forschungsgemeinschaft (DFG) weiterzuführen. 2012 habe ich selbst an einem DFG-Antrag (libOS) zum Thema mitgeschrieben und den letztlich erfolgreichen Antrag 2013 einer kritischen Analyse unterzogen.

In Anbetracht dieser Aktivitäten überrascht es nicht, dass ich sehr am Prozess und Ergebnis der Entwicklung einer überregionalen technischen Infrastruktur für OER im deutschsprachigen Raum interessiert bin, fließen darin doch gewissermaßen zwei meiner Interessengebiete zusammen. Da einige Entwicklungen im Hinblick auf die zukünftige OER-Infrastruktur stattgefunden haben, wird es Zeit, eine Zwischenbilanz zu ziehen.

Im letzten Jahr wurde das Deutsche Institut für Internationale Pädagogische Forschung (DIPF) vom Bundesministerium für Bildung und Forschung (BMBF) beauftragt eine Machbarkeitsstudie zum Aufbau einer OER-Infrastruktur in Deutschland zu erstellen. Neben einer Literaturanalyse wurden für die Studie Experteninterviews sowie Workshops durchgeführt. Am 10. Februar hat das DIPF das Ergebnis veröffentlicht, das hier einer näheren Betrachtung unterzogen wird.

Ich gehöre zu den für die Studie interviewten Personen, habe an einem der Workshops teilgenommen habe und Rückmeldungen zu einem Entwurf der Studie gegeben. Außerdem habe ich auf dem OER-Fachforum am 1. März 2016 in Berlin an einem "Thementisch" mit den Machern des Papiers und anderen Personen darüber diskutiert. Somit werden meine inhaltlichen Anmerkungen die Verfasser der Studie kaum überraschen. Alle Seitenangaben beziehen sich auf Deutscher Bildungsserver: Machbarkeitsstudie zum Aufbau und Betrieb von OER-Infrastrukturen in der Bildung (Stand: Februar 2016). 2016, 66 S. - URN: urn:nbn:de:0111-pedocs-117154.

Der Auftrag

Die Studie ist im Auftrag des Bundesministerium für Bildung und Forschung (BMBF) entstanden. Die Leistungsbeschreibung bzw. Auftragstexte sind zwar nicht bekannt und wurden – laut Christian Füller – auch auf Nachfrage nicht vom Ministerium herausgegeben. Allerdings gibt der Text der Studie selbst einigen Aufschluss. Ganz offensichtlich möchte das BMBF in OER investieren. So sei die Studie dadurch motiviert, "Bedarf, Voraussetzungen und Zielrichtungen einer öffentlichen Förderung freier Bildungsmaterialien" (S.5) zu konkretisieren. Die Aufgabe lautet, "Bedingungen und Erfordernisse für Aufbau und Betrieb einer OER‐Infrastruktur im Internet" zu untersuchen "im Dialog mit Expertinnen und Experten aus Bildungspraxis, Bildungsadministration und Wissenschaft, mit Akteuren der OER‐Bewegung sowie mit Medienproduzenten und ‐anbietern" (S.5).

Es geht also um "Infrastruktur". Das ist das, was idealerweise unsichtbar ist, was erst bemerkt wird, wenn es nicht funktioniert (wie z.B. die Stromversorgung, das DSL-Netz, OSI-Protokolle oder Zeichenkodierungen). Im Falle einer Dateninfrastruktur geht es um Daten, um Protokolle und Schnittstellen, um Software etc.

Ergebnisse/Empfehlungen der Studie

Im Folgenden werde ich nun sechs zentrale Empfehlungen des DIPF-Machbarkeitspapiers näher betrachten.

Absage an ein länderübergreifendes OER-Portal

Auf S.4 heißt es: "Aufbau und Betrieb einer zentralen Infrastruktur, im Sinne eines einzelnen Repositoriums bzw. Referatoriums, für OER über alle Bildungsbereiche hinweg stellen keine realistische Option dar". Ich bin sehr froh, dass dies so deutlich ausgesagt wird, findet sich doch noch im Bericht der OER-Arbeitsgruppe, der der Machbarkeitsstudie als "Orientierungsrahmen" diente, eine Empfehlung zum "Aufbau einer neuen bzw. die Unterstützung bereits bestehender länderübergreifender Plattformen im Internet" (Bericht der OER-Arbeitsgruppe, S.8).

Aus meiner Erfahrung neigt die Politik bisher gerne dazu, zentrale "Portale" zu fördern (z.B. vascoda, Europeana, Deutsche Digitale Bibliothek). Problematisch ist dies, weil meist die Ressourcen auf Ebene der Dienste fehlen, die eigentlich die Inhalte bereitstellen und dass ein enormer Aufwand betrieben werden muss, um die Metadaten einzusammeln und in eine einheitliche Struktur zu bekommen. Dazu kommen die Hemmnisse, die die föderale Struktur Deutschlands mit sich bringt. (Fördert man dagegen die Anwendung geteilter Standards und Schnittstellen bei den verschiedenen Diensten ist am Ende der Aufbau eines übergreifenden Rechercheangebots weniger aufwändig.)

Statt eines zentralen Angebots befürwortet die Studie die "Vernetzung bestehender (Teil-))Infrastrukturen", wozu als zentrale Komponente der Aufbau eines "Metadaten-Austausch-Services" (MDAS)(S.4) empfohlen wird. Hier schleicht sich also unter Umständen doch eine länderübergreifende Infrastrukturkomponente hinein. Ich werde dies weiter unten genauer betrachten.

Förderung von Repositorien und Nachweissystemen

Die erste der auf S.4 genannten "zentralen Empfehlungen" lautet:

Fördermaßnahmen sollten Anreize für den Aufbau bzw. die Vernetzung von Repositorien und Nachweissystemen in bislang wenig OER‐aktiven Handlungsfeldern schaffen (z.B. berufliche Bildung, Erwachsenenbildung).

Es wird also empfohlen, fach- oder bildungsbereichspezifische Systeme aufzubauen

  1. für die Publikation von OER und sie beschreibender strukturierter Metadaten im Web (Repositorien) sowie
  2. für die Rechereche nach OER (läuft unter dem relativ neuen, aus dem OER-Bereich kommenden Terminus "Referatorium" )

Förderung des Aufbaus digitaler Materialbestände

Die größere Herausforderung als der Aufbau einer technischen Infrastruktur ist die Entwicklung einer OER-Kultur. Damit meine ich, dass OER-Inhalte in der Breite von Lehrenden und Lernenden produziert, gepflegt, geremixt und in vielfältigen Bildungskontexten genutzt werden. Diese Frage, wo die Inhalte letztlich herkommen, wer sie erstellt und pflegt, ist nicht unbedingt von einem Infrastrukturpapier zu beantworten – es geht ja nicht um social enginieering. Dennoch nimmt die zweite "zentrale Empfehlung" darauf Bezug:

Empfohlen wird der Aufbau von digitalen Materialbeständen i.S.v. Referenzsystemen für OER zu pädagogisch oder bildungspolitisch besonders relevanten Themen (z.B. Inklusion, frühe Bildung, Alphabetisierung).

Wie dies genau umgesetzt werden soll, wird allerdings nicht näher erläutert. Die schwierige und grundlegende Frage, wie ein Wachstum von OER-Produktion und -Nutzung angeregt und die Entstehung einer nachhaltigen OER-Community gefördert werden kann, soll allerdings im die DIPF-Studie flankierenden, auch vom BMBF geförderten Projekt Mapping OER adressiert werden.

Interoperable Metadaten und Metadaten-Austausch-Service

Die dritte "zentrale Empfehlung" lautet wie folgt:

Bestehende OER‐Plattformen sollten um systematische Zugänge, Zugangsvokabulare für unterschiedliche Fächer und Arbeitsinstrumente ergänzt werden, die die Adaption der Materialien in anderen Bildungskontexten unterstützen. Fördermaßnahmen sollten an die Bereitstellung technischer Schnittstellen und interoperabler Metadaten geknüpft werden, welche für die Realisierung eines Metadaten‐Austausch‐Services (s.u.) notwendig sind.

Diese Forderungen lassen die Herzen von Bibliothekarinnen und Bibliothekaren höher schlagen, wird doch für die Inhaltserschließung die Nutzung geteilter kontrollierter Vokabulare und Klassifikationen (Normdaten) gefordert sowie die Bereitstellung von Schnittstellen zum Einsammeln der damit entstehenden Daten.

Was es aber mit dem Metadaten-Austausch-Service genau auf sich hat und welche Aufgabe er erfüllt bleibt unklar. In der Studie wird er als "zentraler", "aggregierender" "Hintergrunddienst" charakterisiert, der folgende Aufgaben übernimmt:

  • Er sammelt die Metadaten aus den deutschen OER-Referatorien regelmäßig ein (Aggregation).
  • Die verschiedenen Metadaten werden in eine gemeinsame Zielstruktur überführt (Normalisierung) und ggf. automatisch angereichert.
  • Der so entstehende übergreifende Metadatenpool wird zum Download und über Schnittstellen angeboten.

Es ist etwas verwunderlich, dass zum einen von einem zentralen OER-Referatorium abgeraten wird und zum anderen mit dem MDAS ein Service empfohlen wird, der anscheinend eine Menge der nötigen Vorarbeiten für ein solches zentrales Portal leistet.

Einige Skepsis im Hinblick auf die Notwendigkeit sowie leichte Umsetzbarkeit und Pflege des MDAS ist sicher angebracht. Allerdings adressiert das Design des MDAS zumindest eine wichtige Frage einer jeden Dateninfrastruktur, die auch mit nutzergenerierten Daten zu tun hat: Wie bekomme ich Menschen dazu in einer verteilten Infrastruktur kleiner Services, Ressourcen zu taggen und zu bewerten? Prinzipiell ist es überhaupt schwierig eine kritische Masse von Menschen aufzubauen, die Tags und Bewertungen vergeben, wenn man nicht schon eine so große Nutzerschaft wie etwa Amazon hat. Im Bibliotheksbereich ist der Katalog-2.0-Hype zumindest in Bezug auf nutzergenerierte Inhalte nach einigen Jahren vergangen, weil innerhalb der Nutzerschaft eines Bibliothekskatalog eben keine kritische Masse hergestellt werden kann. Bessere Chancen bestehen, wenn die nutzergenerierten Inhalte zwischen verschiedenen Katalogen/Referatorien augetauscht werden. So tauchen dieselben Daten überall auf, wo eine Ressource recherchierbar ist und die Chance, dass Nutzer/innen Lust bekommen, selbst zu taggen oder kommentieren, wird größer. Siehe auch einen Blogpost von 2012, in dem ich gewissermaßen mit der Idee eines Metadaten-Austausch-Service für moderne Bibliothekskataloge gespielt habe.

Auch wenn der MDAS also durchaus ein sinnvolles Ziel verfolgt, bin ich mir nicht sicher, ob dazu wirklich ein zentraler Dienst notwendig ist. Mir scheint als wären die Verfasser/innen am DIPF hier stark von ihren Erfahrungen im Rahmen der vom DIPF betriebenen Suchmaschine ELIXIER beeinflusst. ELIXIER stellt auch einen zentrale Datenaggregationsdienst dar. In der Beschreibung der ELIXIER-Historie heißt es:

ELIXIER – was übrigens für "Elaborated Lists in XML for Internet Educational Ressources" steht – startete im Mai 2007 mit dem Ziel, eine standardisierte Schnittstelle für den Austausch von Metadaten zwischen den deutschen Bildungsservern zu entwickeln und damit einen gemeinsamen Ressourcenpool für Lehr-/Lernmaterialien – insbesondere für den Schulunterricht – bereit zu stellen.

Meines Erachtens sollten auch Möglichkeiten genauer betrachtet werden, auf einen zentralen Mittler wie den MDAS zu verzichten und die Daten direkt zwischen den einzelnen Services auszutauschen.

Freie Software als Voraussetzung einer Förderung

Die DIPF-Machbarkeitsstudie empfiehlt als Voraussetzung der Förderung – neben strukturierten Metadaten und technischer Schnittstellen zum Datenaustausch –, dass neue Softwaresysteme als freie Software entwickelt werden sollten. So heißt es auf den Seiten 58 und 62: "Die Förderung [von Repositorien und Referatorien, A.P.] sollte gebunden sein an die Entwicklung der betreffenden Systeme als Open‐Source‐Produkt , um eine Nachnutzung für andere Einrichtungen zu gewährleisten." Diesen Punkt darf man meines Erachtens nicht unterschätzen. Dadurch werden – im Falle eines Erfolgs von OER und der entwickelten Open-Source-Systeme – Abhängigkeiten von kommerziellen Anbietern proprietärer Systeme verhindert.

Transparente Koordination & Kommunikation

Als ein wünschenswertes Ziel nennt die Studie "eine kontinuierliche Abstimmung" der einzelnen, an der OER‐Infrastruktur beteiligten Dienste. "Die Realisierung koordinierter Kommunikationsprozesse und konsensfähiger Workflows ist als zentrales Kriterium für den erfolgreichen Aufbau einer nachhaltig funktionsfähigen ... Infrastrukturbildung zu betrachten". (S.65)

Mit anderen Worten, die beteiligten Akteure sollen sich beim Aufbau der Infrastruktur austauschen, damit eine einheitliche Praxis bei der Er- und Bereitstellung der Daten entstehen möge.

Das Papier schlägt zu diesem Zweck vor, drei Gremien einzurichten:

  1. eine Koordinierungsstelle. die "interoperable Strukturen und Workflows zwischen den beteiligten Anbietern" entwickelt, "um die Interaktion der unterschiedlichen Repositorien, Referatorien und eines zentralen Hintergrunddienstes zu koordinieren",
  2. ein OER-Beirat soll die Koordinierungsstelle fachlich unterstützen, indem "Vertreter/inne/n aller Bildungsbereiche" Metadatenstandards und Schnittstellen abstimmen sowie
  3. ein Runder Tisch, der ein "regelmäßiges offenes Diskussionsforum" darstelle, in dessen Rahmen "auf der Basis z.B. von Arbeitsgruppen oder Workshops innovative Vorhaben zur Weiterentwicklung OER‐förderlicher Infrastrukturen konzipiert".

Wenn ich das richtig verstehe soll die Koordinierungsstelle mit fachlicher Unterstützung des OER-Beirats die technischen Vorgaben der OER-Infrastruktur spezifizieren, deren Anpassung und Weiterentwicklung am "Runden Tisch" diskutiert wird. Ich halte es für etwas verfrüht, für den Austausch direkt drei formale Gremien vorzuschlagen, weil man erst einmal schauen sollte, wieviele und welche Akteure sich überhaupt beteiligen. Zudem halte ich andere Punkte im Kontext der kooperativen Entwicklung einer gemeinsamen Praxis – die ich in einem gesonderten Beitrag aufzählen werde – für viel wichtiger.

Fazit

Zwar wird der Entstehungsprozess der Studie zurecht kritisiert. Diese Kritik sollte auch ernstgenommen und es sollte daraus gelernt werden. Dennoch scheint mir das ziemlich gut zu laufen im Vergleich zu Prozessen der Planung, Förderung und Entwicklung von Dateninfrastrukturen in anderen Bereichen.

Insgesamt stimmt mich der Inhalt der Studie weiterhin sehr optimistisch, was den Aufbau der OER-Infrastruktur angeht. Insbesondere folgende Punkte sind hervorzuheben:

  • die Absage an ein länderübergreifendes OER-Portal,
  • die Empfehlung, Förderung an die Nutzung und Entwicklung von freier Software zu binden,
  • die Tatsache, dass viele Überlegungen gemacht werden – und das nicht erst seit dieser Studie – hinsichtlich Metadatenschemata, geteilten Klassifikations- und Verschlagwortungssystemen und Schnittstellen, die die einfache Zusammenführung verteilt vorliegender Metadaten sicherzustellen, mit dem Ziel das Auffinden relevanter OER zu verbessern.

Man darf gespannt sein, wie sich der weitere Prozess gestaltet.

Kommentare:

Boris Bockelmann hat gesagt…

Danke Adrian, für die komprimierte Darstellung und Einordnung aus deiner Perspektive.

Auch meines Erachtens "sollten auch Möglichkeiten genauer betrachtet werden, auf einen zentralen Mittler wie den MDAS zu verzichten und die Daten direkt zwischen den einzelnen Services auszutauschen". Nur werden die Hürden - die Zeit bis zu einer Lösung - damit für viele Player nicht noch höher werden?

Es ist ja auch zu beachten, dass wir ein System bzw. eine Vernetzung brauchen, in dem nicht nur Usage- und Ratingdaten ausgetauscht und aggregiert werden, sondern welches auch eine verteilte, kaskadierende Metadatenerschließung erlaubt und unterstützt - so, dass etwa der Content-Lieferant die Grund-Metadaten liefert, die Zuordnung nach z.B. Kompetenzbereichen über die bundesweit verteilte Lehrer-Community erfolgt, Rückmeldungen zu nicht mehr verfügbaren Medien in allen angeschlossenen Systemen "aufschlagen" und eine Community an Metadaten-Indexern die ausreichenden Rechte hat, um "fremde" Metadaten zu einem OER-Objekt zu ergänzen, anpassen bzw. im jeweiligen Landeskontext (z.B. Digitale Lehrpläne)variieren zu können - ohne dafür Dubletten erzeugen zu müssen.

Gibt es dazu praktikable Ansätze - neben dem aktuellen Konzept zu einer ersten (echten) ELIXIER-API? Wäre prima, wenn du ein paar Links dazu einstellen könntest.

Adrian Pohl hat gesagt…

Danke für deinen Kommentar, Boris, und den sehr guten Hinweis, dass es sich bei den "nutzergenerierten Daten", wie ich sie bezeichnet habe, um eine größere Menge von Metadaten handeln kann, die von verschiedenen Gruppen geliefert wird. Das grundlegende Problem der Ergänzung und Anpassung durch Dritte gilt bei OER dazu noch für die Inhalte selbst. Hier eine knappe Darstellung der Problematik mit einer offenen Bildungsressource R, ihrer strukturierten Beschreibung M und drei Diensten A, B und C:

1. Eine offene Bildungsressource R wird durch Dienst A mit dem Metadatenset M veröffentlicht.
2. Dienst B übernimmt die Resource und ergänzt die Metadaten zu M'.
3. Dienst C übernimmt die Ressource von Dienst A und passt sie an zu R', außerdem ergänzt er die Metadaten – anders als Dienst B – zu M''.
4. Für Dienst D soll es nun möglich sein herauszubekommen, a) wo die aktuellste Version von R (R') liegt und b)
welche Metadaten für die Ressource wo zu finden sind.

Die Problemstellung ist also alles andere als trivial. Aus der Bibliothekswelt kenne ich keine Lösungen dafür, weil dort bisher auch lieber mit zentralen Datenbanken gearbeitet wird. Ich bin auch nicht der Richtige, um hier tragfähige Lösungen vorzuschlagen. Auf jeden Fall hängt der technische Lösungsansatz davon ab, wie R und M vorliegen:

- Liegen die Ressourcen als Textdatei oder als Binärdatei vor?
- Sind Ressourcen und Metadaten grundsätzlich getrennt oder sind die Metadaten in der Ressource eingebettet?

Im besten Fall haben wir es mit Textdateien zu tun wie es etwa Axel Dürkop hier beschreibt. Ob es besser ist die Metadaten direkt in der Datei zu haben oder eine separate Beschreibungsdatei zu haben, weiß ich nicht. Jedenfalls lassen sich mit Textdateien und git die Änderungen und Beziehungen zwischen Ressourcen, Metadaten und ihren Versionen gut automatisiert abbilden. Dazu noch ein Mechanismus, um den jeweiligen Quelldienst über den Fork bei einem anderen Dienst zu informieren (vielleicht ist dafür Webmention brauchbar) und wir hätten bereits eine gute Basisinfrastruktur.
Bei Binärdateien wird es auf jeden Fall schwierig, automatisiert Unterschiede (Diffs) von einer Version einer Ressource zu einer anderen Version zu erkennen. Liegen die Metadaten dazu in einer Textdatei vor, könnte das aber zumindest auf Metadatenebene so wie eben beschrieben funktionieren. Eine automatische Synchronisierung von Metadaten kann auch mit ResourceSync umgesetzt werden, das sozusagen der Nachfolger von OAI-PMH ist. Soweit ich weiß, gibt es davon aber noch nicht wirklich viele Implementierungen. Soviel in aller Kürze.

Boris Bockelmann hat gesagt…

Danke für die ausführliche Rückmeldung, mit der du ja gewissermaßen auch bestätigend erklärst, warum bei diesen nicht-trivialen Vorgängen doch schnell auf eine doch irgendwie zentrale oder wenigstens teil-zentrale Lösung geschielt wird ;-)

Neben der, von der HOOU genutzen, git-Lösung finde ich den Ansatz von edeos über archive.org auch richtungsweisend: https://archive.org/details/ScriptFocusHumanRights1 Wir schauen gerade, wie das in ELIXIER kommen kann und wer die erste Erweiterung der Metadaten übernehmen kann.

Annett Zobel hat gesagt…

Die Veröffentlichung der Machbarkeitstudie sehe ich als Start einer Konzeptdiskussion in der Community und freue mich, dass Du, Adrian, diese/eine hier angestoßen hast. Vielen Dank für Deine gelungene Zusammenfassung und Kommentierung.

Naturgemäß haben die an der Studie Beteiligten (meint SchreiberInnen & ExpertInnen in Interviews & Workshops) ihre Perspektive und sehen Lösungsoptionen, die ihren Wirkungsgebieten nahe sind - Standardisierung, zentraler Metadatenaustauschservice, etc.
Da auch unser Weimarer Team in frühen E-Learning-Berufsjahren Metadaten-missionarisch unterwegs war (relativ erfolgsarm) sind mir missionarische und zentralistische Ansätze eher unsympathisch.

U.a. folgende Erkenntnisse kristallisierten sich für mich in bisherigen Workshops und Diskussionen heraus. Über die und deren Konsequenzen für Infrastrukturkonzepte würde ich gern mit Euch diskutieren:


1. Nutzer geben keine Metadaten ein,

außer man bezahlt sie dafür, dann sind es aber eher Redaktionsmitarbeiter. Auch Tagging & Bookmarking verbreiteten sich nicht, wie erwartet. Das beste “manuelle” Ergebnis scheint die Ausnutzung des Jäger- und Sammler-Triebs ;-) zu bringen (z.B. Sammlungen ähnlich Pinterest). Aber sicher wird nur ein Teil der Nutzerschaft es lieben, Materialien zu sammeln & einzusortieren und diese Sortierarbeit öffentlich verfügbar zu machen. Der Großteil sucht einfach erneut mit Google.


2. Softwareentwickler und Systemkonfigurierer auf einen Standard zu missionieren, ist ein extrem zähes Geschäft und wird nie zu 100%igem Erfolg führen.

Ein MDAS-basiertes Konzept führt bei mir zu ein paar Bauchschmerzen - ist aber eine diskutierenswerte Option.


3. Wer seine gute Laune liebt, baut nicht auf dem gleichen Feld wie, sondern in Synergie zu Google & Co.

Was “die Großen” als interessantes Feld betrachten, hat für alle anderen ein unschön kurzes oder kleines Marktpotential. Es sei denn, Politik und Gesellschaft definieren Grenzen der Informationsmonopolisierung.
Ich bin auch froh, dass kein länderübergreifendes OER-Portal vorgeschlagen wurde. OER-Quellen (bspw. E-Learning-Repositorien in den Bildungseinrichtungen) sollten ihre freien Inhalte und Metadaten über offene Schnittstellen frei abrufbar machen. Entweder in Struktur / Format etablierter Standards & Vokabularen. Oder man stellt im Netzwerk Übersetzungs- & Mappingservices zur Verfügung, um von Vokabular oder Struktur A nach Struktur B zu kommen. So müsste man bei Vokabular- & Gewohnheitsänderungen nur am Mappingservice, und nicht an allen Repositorien im Netzwerk schrauben.
Mit offenen Schnittstellen und einem Peer-2-Peer-Konzept bedient man außerdem beide Welten - die von Google & Co und die eines ggf. geschlosseneren Bildungsnetzwerkes.


4. Das beste Suchergebnis erreicht, wer die NutzerIn kennt.

Je mehr Daten über Person, Kontext, aktuelles Such-/Handlungsziel etc. - umso besser das Ergebnis. Dabei ist “Suche” ohnehin das “ollere” Konstrukt gegenüber Vorschlagen, Verdichten, Helfen, Sammlungs- & Stöberangeboten.
Wenn wir davon absehen, dass “beste Nutzerkenntnis” wieder zu Google & Co führt ;-), müssen die Such- & Vorschlagsfunktionen in unseren Bildungsorganisationen verortet werden. Dort, im geschützten Raum, haben diese Funktionen den noch “angenehmsten” Zugriff auf persönliche Daten. Wenn die IT-Systeme meiner Bildungseinrichtung mich aber wegen Datenschutzbestimmungen weniger gut als Google, Facebook & Amazon kennen, werden sie mir die schlechteren Suchergebnisse liefern. Im Gedankenspiel um das beste OER-Konzept brauchen wir Datenschützer & Innovatoren (idealerweise sind beide die Gleichen ;-) an einem Workshoptisch.


// hmm nur 4.096 Zeichen, ich habe aber ca. 5.300 und keine Zeit zum kürzen - na gut... dann ein 2. Post:

Annett Zobel hat gesagt…

5. Maschinen & Services werden immer intelligenter - das sollten wir nutzen.

Egal was wir als Infrastruktur bauen, wir sollten auch auf die Intelligenz von Maschinen & Services setzen, die im Netz ent- & bestehen. Vielleicht gibt es bald einen öffentlichen Watson-Service, dem wir die Fragen unserer Wissens-Suchenden weiterleiten, der dann die perfekte Suchanfrage erzeugt, in eine heterogene, wenig standardisierte OER-Infrastruktur weiterleitet, um das beste Suchergebnis zurückzuliefern und mit Google-Translator zu übersetzen.


Mein bisheriges Fazit:

a) denzentrale Repositorien in den Bildungseinrichtungen, die freie Inhalte über offene Schnittstellen nach außen verfügbar machen und private Inhalte privat lassen

b) Metadaten hauptsächlich generieren / schlußfolgern (z.B. Henry’s Rahmenlehrplan zum länderübergreifenden Service ausbauen)

c) für “best-off-Inhalte” Metadaten durch Redaktionen ergänzen lassen

d) Redaktionen vernetzen - Austausch zu Metadaten, Vokabularen und Mappinglogiken

d) ein Netzwerk frei verfügbarer Services (z.B. Metadatengenerierung, Mapping, etc.)


Allerdings verändert sich mein Fazit öfter - mit jeder ExpertIn, mit der ich etwas mehr Zeit verbringe, als in den Workshops der Machbarkeitsstudie möglich war.
Ganz sicher bin ich mir, dass Ideen und Wissen noch mehr zusammengebracht werden müssen, um eine zukunftsfähige OER-Infrastruktur zu konzeptionieren. Und vielleicht sollten wir gar nicht lange konzeptionieren, sondern lieber agil bauen und verbessern.

Daher lieben Dank an Adrian für die Diskussionseröffnung. Lasst uns Optionen suchen, miteinander zu denken und zu diskutieren...
Und nun der Werbeblock :-) ...z.B. beim nächsten edu-sharing Hackathon oder Workshop ;-)

Kommentar veröffentlichen