2009-09-17

Plädoyer für ein Twitter-Recherche-Hashtag

Beim Missverstehen der Twitter-Anwendung WeFollow ist mir gestern eine Idee gekommen: Wieso nicht ein Twitter-Hashtag etablieren, das Recherchierende ihrem Tweet hinzufügen, wenn dieser eine Auskunftsanfrage beinhaltet? Auskunftsbibliothekare oder andere, die gerne bei Recherchen weiterhelfen, können sich dieses Hashtag abonnieren und die Anfragen mit hilfreichen Links auf Bibliographien, Kataloge oder andere Informationsquellen beantworten.
Das Ganze wäre sozusagen eine auf Rechercheanfragen spezialisierte Form von Diensten wie AskOnTwitter. Allerdings ist eine spezielle Anwendung für einen solchen Dienst nicht einmal nötig, wenn das ganze über ein Hashtag läuft.

Ist nur noch die Frage, welches Hashtag wir dafür benutzen sollten. Es sollte nicht zu lang sein aber auch noch nicht haufenweise vorkommen, damit man es mit der neuen Funktion besetzen kann. Wie wäre es denn mit #theke? Oder lieber was auf Englisch? #enquiry? #inquiry? #infodesk?

Ich habe direkt mal begonnen...

2009-09-02

Wann ist Digitalität?

Das digitale Zeitalter bzw. "digital age" ist spätestens seit den 90er Jahren in aller Munde. Diese Ausdrücke sind offensichtlich gängige Etiketten für die Bezeichnung des Wandels unserer Gesellschaft zur Wissensgesellschaft, für die Verbreitung von Computer und Internet.

Diese Sprachpraxis zeigt, dass Digitalität meist an die elektronische Übertragbarkeit von Signalen gekoppelt wird. Ein Blick in die englischsprachige Wikipedia genügt indes, um darauf hingewiesen zu werden, dass digitale Medien [1] schon seit Jahrtausenden existieren. Eines der ältesten Beispiele für ein digitales - in diesem Fall sogar binäres - Medium dürfte das Leuchtfeuer sein, welches zwei unterschiedliche Zustände zur Verfügung stellt, um Information zu transportieren: es brennt oder es brennt nicht, an & aus.

Man könnte also behaupten, das digitale Zeitalter habe bereits vor tausenden von Jahren begonnen und die gängige Verwendung des Ausdrucks sei somit unpassend und irreführend. Unpassend und irreführend: ja. Allerdings würde ich jedoch den Beginn der digitalen Ära etwas später ansetzen, frühestens mit der Erfindung der Hieroglyphen um 3000 oder der Alphabetschrift um etwa 1500 bis 800 vor unserer Zeitrechnung. Erst hier hat sich die Praxis etabliert, komplexe Sachverhalte mittels eines Codes, d.h. eines beschränkten Inventars von Zeichen, zu kommunizieren.

Digitalität basiert auf Code

Und es ist der Code, an dessen Verwendung die Existenz von digitalen Medien notwendigerweise gebunden ist. Ein Code ist eine endliche Menge klar unterschiedener Typen. Der Code "Alphabet" zum Beispiel besteht aus 26 Buchstabentypen. Typen sind Klassen, abstrakte Entitäten. Schließlich würde niemand behaupten, er habe den Buchstaben 'A' gesehen, denn: Das 'A' gibt es nicht, ich sehe immer nur ein bestimmtes 'A'. Die einzelnen sichtbaren Erscheinungsweisen (die Token) eines Buchstaben sind äquivalent, untereinander austauschbar. Dies zeigt sich etwa darin, dass wir unzählige verschiedene Schriftarten haben, die sich miteinander kombinieren lassen und dennoch das Geschriebene nicht unleserlich machen.

Ein Code ist nie - wie Derrida schreibt - „strukturell geheim“. Selbst, wenn ich eine Schriftsprache nicht verstehe, kann ich den dahinterliegenden Code (das Alphabet) herausfinden und ihn wiedergeben. Bei der gesprochenen Sprache hingegen existiert ein solcher Code nicht, sie ist analog. Die Struktur einer oralen Sprache herausfinden heißt, diese Sprache verstehen. Ohne jedes Verstehen des Geäußerten sind die wahrgenommenen Laute nur Geräusch.

Digitales Zeitalter vs. Bitzeitalter

Was soll das Ganze hier? Texte sind digital, das Internet ist digital, wollen wir sie verstehen, müssen wir die Digitalität verstehen. Auch müssen wir Schrift und Computer(programm) unterscheiden können, um die Revolution, den Wandel verstehen zu können, den Computer und Internet mit sich bringen. In einem früheren Beitrag habe ich schon ein Phänomen beleuchtet, wo (Autoren-)Probleme dem Computer oder Internet zugeschrieben wurden, die sich letztlich auf die ursprünglichere Digitalität der Schrift gründen. Gerade mit der Entfaltung des Bitzeitalters (wie ich es jetzt mal nenne) ist meines Erachtens eine differenzierte Betrachtung angebracht, will man die Ursachen und Zusammenhänge bestimmter Phänomene und Probleme ergründen.

Was macht nun das Bitzeitalter aus? Was sind seine Eigentümlichkeiten? Welche zusätzlichen Features (und Bugs) bringt es mit sich?
Der Binärcode ist Resultat maximaler Reduktion - er besteht nur aus zwei Typen: ja/nein, an/aus. Elektronische Speicherung und Übertragung machen nun auch die Token nahezu körperlos, so dass Informationen
sich problemlos und massenhaft kopieren und transportieren lassen und überall und jederzeit abrufbar sind. Dennoch können die Tokens wiederum nicht ohne körperliche Trägermedien existieren. Zudem ist für Menschen der Binärcode selbst nicht lesbar und somit untrennbar an Hard- und Software gebunden, die ihn lesbar machen. Hieraus ergeben sich dann etwa die Probleme der digitalen Langzeitarchivierung.

Welche weiteren Möglichkeiten und Probleme bringt das Bitzeitalter mit sich? Was sind die Eigentümlichkeiten von Programmcode, Hypertext und XML? Ich bin sicher, dass ich auf diese und andere Fragen zurückkommen werde. Zunächst bin ich aber mit diesen zwar grundlegenden aber nicht
tiefgehenden, weil knappen Ausführungen am Ende angelangt.

[1] Im Unterschied zur gängigen Verwendung des Ausdrucks 'Medium' für körperliche Kommunikationsmittel (Fernsehen, Radio, Buch, Zeitung etc.) gebrauche ich einen weiten Medienbegriff, der auch Schrift, orale Sprache, Malerei usw. umfasst.

Quellen:
Mein Verständnis des Digitalen speist sich aus den Texten "Sprachen der Kunst" (hier: Kapitel IV) und "Revisionen" (hier: Kapitel VIII) von Nelson Goodman, der die Digitalität akribisch mithilfe logischer Terminologie definiert. Der Text "Signatur. Ereignis. Kontext" (u.a. hier (S.68-109) erschienen) von Jacques Derrida ist auch sehr aufschlussreich.