Skip to content
BY 4.0 license Open Access Published by De Gruyter November 27, 2021

Discovery-Systeme: Eine Analyse ihrer Geschichte und Gegenwart mit dem Hype-Zyklus

Past and Present of Discovery Systems – An Analysis Based on the Hype Cycle Model
  • Anne Christensen

    effective WEBWORK GmbH, Neuer Wall 18, D-20354 Hamburg

    ORCID logo EMAIL logo
    and Matthias Finck

    effective WEBWORK GmbH, Neuer Wall 18, D-20354 Hamburg

    ORCID logo

Zusammenfassung

Der Beitrag analysiert die Entstehungsgeschichte von bibliothekarischen Discovery-Systemen in Wissenschaftlichen Bibliotheken, mit einem Fokus auf Bibliotheken in Deutschland. Hierfür dient der Hype-Zyklus als Rahmen, um vor allem auch auf die Erwartungen und Rezeption der Systeme in bibliothekarischen Kreisen einzugehen und diese zu diskutieren. Der Beitrag liefert außerdem einen Ausblick auf künftige Potenziale von Discovery-Systemen, auch im Kontext von forschungsnahen Dienstleistungen.

Abstract

This paper analyses the history of discovery systems created by librarians in academic libraries, with a focus on libraries in Germany. It uses the hype cycle as a model to investigate and discuss these systems with specific regard to the expectations and perceptions of librarians. The paper also provides an outlook on the future potentials of discovery systems, putting it in the context of research services.

Discovery-Systeme als Informationsdienstleistung von Wissenschaftlichen Bibliotheken gibt es seit gut 15 Jahren. In diesem Beitrag wird die Geschichte und Gegenwart dieser Systeme anhand des Hype-Zyklus von neuen Technologien analysiert und bewertet. Dieses Modell für die Beschreibung der Rezeption von Innovationen geht auf das amerikanische Forschungsinstitut Gartner zurück, das es als den Hype Cycle of emerging technologies bezeichnet.[1] Jedes Jahr aktualisiert das Unternehmen die Einschätzung, zeigt, auf welchem Stand sich Technologien derzeit befinden. Die Phasen des Zyklus zeigen auf, welche Erwartungen es an eine Technologie gibt und ob diese erreicht werden konnten. Sie machen auch sichtbar, ob eine Technologie in bestimmten Phasen ihrer Entstehung eventuell überbewertet wurde und wie sich ihr Weg zur Etablierung am Markt gestaltet.[2]

Abb. 1 
Die Phasen des Hype-Zyklushttps://de.wikipedia.org/wiki/Hype-Zyklus.
Abb. 1

Die Phasen des Hype-Zyklus[3]

Die Darstellung erfolgt gemäß in einem Diagramm: Auf der Y-Achse ist die Aufmerksamkeit (Erwartungen) für eine neue Technologie aufgetragen, auf der X-Achse die Zeit seit Bekanntgabe.[4] Die Kurve steigt anfangs explosionsartig an, um dann nach einem Maximum ebenso stark zu fallen. Nach einem Zwischenminimum steigt die Kurve erneut an bis zu einem höheren Niveau der Beharrung. Hinsichtlich der Erwartungen an die Technologien werden im Kurvenverlauf fünf prägnante Punkte markiert, die Aufschluss über den Stand der Marktaufnahme dieser neuen Technologien liefern und von Kreutzer (2015) wie folgt beschrieben werden:

  1. Technologischer Auslöser: An diesem Punkt werden erste Erfolgsmeldungen neuer Technologien publiziert und von den Medien oder der Fachcommunity gerne aufgegriffen. Ob diese Technologien einen nachhaltigen Einsatz finden werden, ist zu diesem frühen Zeitpunkt noch nicht absehbar.

  2. Gipfel der überzogenen Erwartungen: Zu diesem Zeitpunkt sind eine Vielzahl von Erfolgsstorys sichtbar, die die Erwartungen an eine neue Technologie auf den Höhepunkt führen. Gleichzeitig werden aber auch Misserfolge bei der Nutzung der Technologie sichtbar, die Erwartungen an Grenzen stoßen lässt. Der technologische Einsatz bleibt nach wie vor auf wenige Institutionen beschränkt.

  3. Tal der Enttäuschungen: Diese Talsohle im technologischen Lebenszyklus basiert auf der Erkenntnis, dass viele Erwartungen nicht erfüllt wurden. In dieser Phase überleben nur die Technologie-Anbieter, die die Early Adopters von den Vorzügen der Technologie nachhaltig überzeugen können.

  4. Pfad der Erleuchtung: Hier wird zunehmend sichtbar, wie eine Technologie nutzbringend eingesetzt werden sollte. Technologische Entwicklungen der zweiten und dritten Generation werden angeboten und zunehmend von innovationsoffenen Institutionen aufgegriffen und in den Workflow integriert.

  5. Plateau der Produktivität: Die Technologie wird jetzt breit eingesetzt, da deren Vorteile nicht nur sichtbar sind, sondern sich auch umfassend rechnen. Der Einsatz als Mainstream-Technologie ist vorgezeichnet. Ein Einsatz in immer mehr Institutionen und Anwendungsbereichen ist nur noch eine Frage der Zeit.[5]

Die junge, aber wechselhafte Geschichte von Discovery-Systemen in Bibliotheken lässt sich aktuell am Ende des Hype-Zyklus auf dem Plateau der Produktivität einordnen. Sie ist mit ihren gut 15 Jahren ein Beispiel mit einer typischen, aber eher langsamen Zeitspanne für den Erwartungsverlauf der Zielgruppen im Rahmen des Hype-Zyklus. Sie lässt sich – orientiert an den zeitlichen Abschnitten zwischen den prägnanten Punkten des Hype-Zyklus – in drei zeitliche Abschnitte von jeweils ca. 10 Jahren teilen: Der erste Abschnitt startet früh im ersten Jahrzehnt des 21. Jahrhunderts mit dem technischen Auslöser und ist voller Optimismus geprägt bis zum Gipfel der überzogenen Erwartungen. Diesem Abschnitt folgt der Abschnitt der Ernüchterung ab etwa 2010, der den Abwärtstendenz in der Erwartung vom Gipfel der Erwartungen bis zum Tal der Enttäuschungen beschreibt. In der Gegenwart lässt sich eine von Pragmatismus getriebene Konsolidierung feststellen. Die Punkte im Hype-Zyklus lassen sich gut den einzelnen Stationen der Entwicklungsgeschichte von bibliothekarischen Discovery-Systemen zuordnen und helfen bei der Bewertung der aktuellen Situation.

1 Das erste Jahrzehnt: Von nicht nur technischen Auslösern zum Hype

Zu Beginn des 21. Jahrhunderts sahen sich Wissenschaftliche Bibliotheken mit der folgenden Situation konfrontiert: Ihre Bibliotheksmanagementsysteme waren sehr ausgereift bezüglich der Funktionen für den internen Gebrauch in herkömmlichen Arbeitskontexten, ließen aber neben der Verwaltung von elektronischen Medien einerseits und den Angeboten für Nutzende wie Katalog und Kontofunktion andererseits zu wünschen übrig. Das WebOPAC-Modul des weit verbreiteten LBS von OCLC/PICA wurde beispielsweise seit 1999 nicht mehr weiterentwickelt und ließ eine Perspektivlosigkeit für diesen Benutzungsdienst entstehen.

Parallel dazu zeigte die Benutzungsforschung auf, dass Bibliotheken ihr einstiges Monopol auf die wissenschaftliche Informationsversorgung verloren hatten. Für den deutschen Raum war diesbezüglich die „Stefi“-Studie einschlägig – sie belegte unter anderem, dass Studierende Suchmaschinen einen deutlichen Vorzug gegenüber bibliothekarischen Instrumenten gaben.[6] Insbesondere im angloamerikanischen Bereich wurden qualitative Forschungen mit ethnografischen Methoden durchgeführt, die die Ergebnisse der Stefi-Studie stützten und ein ganzheitliches Bild vom Informationsverhalten von Studierenden und Lehrenden zeichneten, in dem Bibliotheken nur noch eine untergeordnete Rolle spielten.[7]

Aus dieser Situation heraus begannen Bibliotheken weltweit mit dem Eigenbau von neuen Kataloglösungen, die sich später unter den Begriffen wie zunächst Next Generation Catalogs später auch Discovery-Systems oder Web Scale Discovery Systems etablierten. Dabei wurden entweder kommerzielle Lösungen aus dem E-Commerce-Bereich herangezogen wie in der Bibliothek der North Carolina State University,[8] oder es wurden im informationswissenschaftlichen Bereich entwickelte Indexierungslösungen benutzt wie bei der E-LIB der Staats- und Universitätsbibliothek Bremen, die in ihrer jetzigen Form im Jahr 2004 in Betrieb genommen wurde und damit als erstes Discovery-System im deutschsprachigen Raum gelten kann.[9] Aus dieser Situation heraus haben sich im weiteren Verlauf auch diejenigen Systeme entwickelt, die heute noch weltweit führend sind, u. a. Summon[10] und Primo[11] von ExLibris sowie VuFind, ein an der US-amerikanischen Villanova University entwickeltes System, das auf Open-Source-Software aufbaut und auch seinerseits frei verfügbar ist.[12]

Die neuen Kataloglösungen erhoben in der Regel gleich mehrere Ansprüche, um sich vom traditionellen Katalog abzusetzen. Der prominenteste Anspruch ist vermutlich der, eben kein Katalog zu sein, um über reine Bestandsnachweise hinausgehend auch weitere bibliografische Informationen und Volltexte nachzuweisen. In Deutschland hatten dafür schon die „Virtuellen Fachbibliotheken“ den Weg geebnet, die an Bibliotheken mit Sondersammelgebieten der Deutschen Forschungsgemeinschaft in Folge des „Memorandums zur überregionalen Literaturversorgung“ entwickelt wurden.[13] Diesem Förderprogramm ist es zu verdanken, dass die IT-Abteilungen der beteiligten Bibliotheken personell erweitert wurden und technisches und bibliotheksfachliches Wissen zur Sammlung, Indexierung und Aufbereitung heterogener Metadaten aufgebaut wurde. Dieses Wissen hat beispielsweise an der Staats- und Universitätsbibliothek Hamburg dabei geholfen, die erste Version des später als beluga-core bekannt gewordenen Discovery-Systems zu entwickeln, da Technologien aus dem Bereichen Aggregation und Management von Metadaten nachgenutzt werden konnten.[14]

Darüber hinaus haben die neuen Kataloglösungen auf technische Offenheit ihrer Systeme gesetzt und auf diese Weise auch ermöglicht, dass die rein bibliothekarischen Metadaten durch weitere Informationen von Drittanbietern angereichert werden konnten, u. a. durch Coverabbildungen, Inhaltsverzeichnisse und anderes mehr. Hierfür war durch das Aufkommen von Web-Schnittstellen von einschlägigen Diensten die technische Voraussetzung geschaffen worden. In der Bibliothekscommunity wurde damals die Plattform Library Thing stark beachtet – vornehmlich deswegen, weil sie ein beeindruckendes Beispiel von den Potenzialen der inhaltlichen Erschließung von Nutzenden geliefert hat.[15] Darüber hinaus hat Library Thing aber erlebbar gemacht, wie eine offene Katalogplattform aussehen kann, die sich aus verschiedenen bibliothekarischen Datenquellen speist und eigene Mehrwertdienste bietet. Library Thing kann damit durchaus als Antreiber für Innovationen für bibliothekarische Dienste gesehen werden, vor allem durch den Fokus auf ein positives Benutzungserlebnis durch die Partizipations- und Vernetzungsmöglichkeiten.

Zusammenfassend betrachtet hat es in der ersten Phase mehrere technologische Auslöser im Sinne des Hype-Zyklus gegeben:

Das Ende des Lebenszyklus der bisherigen Bibliotheksmanagement-Systeme, zu Beginn des 21. Jahrhunderts in Wissenschaftlichen Bibliotheken im Einsatz, war absehbar. Die zugrunde liegenden Technologien bei Datenbanken, Schnittstellen und Indexierung u. a. waren veraltet. Es fehlten zudem Funktionalitäten für die Verwaltung des steigenden Anteils an elektronischen Ressourcen. Auch die OPAC-Module stagnierten in Bezug auf die Frontend-Entwicklung sowie die Möglichkeiten der Einbeziehung von externen Datenquellen. In dieser Situation verwiesen die Anbieter der damals am Markt dominierenden Systeme darauf, sich auf eine grundsätzliche Neukonzeption einer neuen Generation von Bibliotheksmanagement-Systemen zu konzentrieren, die jedoch aus Sicht von Entscheidungstragenden in Bibliotheken noch weit davon entfernt waren, sich für den produktiven Einsatz zu eignen.[16] Für viele Wissenschaftliche Bibliotheken war klar, dass man mittelfristig mit den veralteten Systemen würde arbeiten müssen.

Innovative Technologien wie Solr für die Indexierung sowie Webschnittstellen für den Austausch von Daten wurden für Bibliotheken nutzbar. Sowohl für die Indexierung als auch für den Datenaustausch hatten Bibliotheken zwar bereits mehrere Jahrzehnte zuvor Lösungen entwickelt, die aber rein branchenspezifisch und nur als Teile geschlossener Systeme nutzbar waren wie beispielsweise das Z39.50-Protokoll oder die PSI-Software für die Suche in den Systemen des LBS von OCLC/PICA. Die ersten Discovery-Systeme entstanden vor diesem technologischen Hintergrund und sie haben sich zwar viel öfter aus hohen individuellen Initiativen heraus entwickelt, denn als bibliotheksstrategisch geplantes Unterfangen. Die Bibliothek der Technischen Universität in Hamburg stellte 2010 ihr Discovery-System zunächst als „Aprilscherz“ online und verwies dabei auf die Vorzüge ungeplanter Innovation, die aus individuellen Freiräumen für einzelne Mitarbeitende entstünde.[17]

Neue Vorgehensmodelle etablierten sich. Tatsächlich dürfte die Verbreitung von sogenannten agilen Entwicklungsmethoden, die seit der Veröffentlichung des „Agilen Manifests“[18] 2001 besonders in der Open-Source-Welt mit ihren jeweiligen Communities Verbreitung fanden, einen indirekten Einfluss darauf gehabt haben, dass Discovery-Systeme entstanden sind, vor allem weil diese Methoden es gewissermaßen erlaubt haben, vergleichsweise früh im Entwicklungsprozess Prototypen und Beta-Versionen bereitzustellen und die Rückmeldungen der Zielgruppen in die weitere, in der Regel kleinschrittige Entwicklung einfließen zu lassen. Nicht von ungefähr haben einige Bibliotheken daher auch die Entwicklung ihrer Discovery-Systeme mit eigenen Weblogs begleitet, in denen sie die jeweils neuen Versionen sowie die dahinter stehenden Überlegungen präsentiert und diskutiert haben, wie beispielsweise tub.find, beluga, finc, swissbib (Die Adressen der teilweise eingestellten Blogs befinden sich im Literaturverzeichnis). Die Präsentation eines noch unfertigen Dienstes hat jedoch vielen Bibliothekar*innen einiges an Überwindung abgefordert, da hier perfektionistische Ansprüche zurückgehalten werden mussten.

2 Das zweite Jahrzehnt: Vom Hype zur Ernüchterung

Die möglich scheinende Verschmelzung von Katalogen und Fachbibliografien zu einem One-Stop-Shop mit besonders guter Berücksichtigung des weiter steigenden Anteils an elektronischen Medien wirkte ausgesprochen verheißungsvoll. Auf den Bibliothekstagen in der ersten Hälfte des Jahrzehnts waren Sitzungen zu diesem Thema sehr populär und gut besucht; es wurde vergleichsweise viel Literatur dazu publiziert – im angloamerikanischen Bereich vor allem auch unter dem Schlagwort „Web Scale Discovery“, das genau jenen One-Stop-Shop bezeichnet.[19] Damit war der „Gipfel der überzogenen Erwartungen“ im Sinne des Hype-Zyklus erreicht.

Auf der technischen Ebene setzte sich VuFind zunehmend durch; seit 2012 gibt es ein deutschsprachiges Anwendertreffen sowie darüber hinaus eigene Sub-Communities wie das norddeutsche beluga-Konsortium oder die finc-Anwendergemeinschaft. Außerdem wurde VuFind auch in das Programm von Dienstleistern aufgenommen, beispielsweise bei der Göttinger Verbundzentrale sowie der Hamburger Firma effective WEBWORK. Daneben haben einige Bibliotheken aber auch eigenständige VuFind-Implementationen vorgenommen. Parallel nahmen einschlägige kommerzielle Dienstleister die Entwicklung von Suchindices auf, darunter, wie oben bereits erwähnt, im Jahr 2010 mit ExLibris und seinem Produkt Primo ein etablierter Hersteller von Bibliotheksmanagement-Systemen, aber mit SerialsSolutions mit Summon im Jahr 2009 auch ein Anbieter, dessen Kernkompetenz traditionell bei Dienstleistungen um die Bereitstellung von elektronischen Medien lag.

Abb. 2 
beluga 2008: Der Fokus liegt weniger auf bibliografischen Angaben als auf einer Einladung zum entdeckenden Suchen (rechts) sowie der Verbindung zu Lernmanagementsystemen und Literaturverwaltungsprogrammen (unten)
Abb. 2

beluga 2008: Der Fokus liegt weniger auf bibliografischen Angaben als auf einer Einladung zum entdeckenden Suchen (rechts) sowie der Verbindung zu Lernmanagementsystemen und Literaturverwaltungsprogrammen (unten)

Von diesem Gipfel bezüglich der inhaltlichen Erwartungen und technologischen Versprechungen aus begann der Abstieg in das Tal der Enttäuschungen.

Die erste Enttäuschung, die sich manifestierte, lag in der anfangs noch mangelhaften Integration von Discovery- mit Ausleihsystemen zusammen. Der Abruf von Verfügbarkeitsinformationen in Echtzeit sowie die nahtlose Integration von kontobezogenen Aktivitäten in Discovery-Systeme zeichnete sich schon rasch als größte Herausforderung der Anfangsphase ab.

In Deutschland wurde in einem verbundübergreifenden Kooperationsprojekt ein Datenmodell für die Codierung von Verfügbarkeitsinformationen entwickelt und in der Folge als Schnittstelle implementiert.[20] Diese Schnittstelle namens DAIA ermöglichte nicht nur für Discovery-Systeme, sondern auch andere Drittsysteme wie beispielsweise die mobile Anwendung BibApp, die Darstellung von Verfügbarkeitsinformationen in Echtzeit. Dabei wurden die Informationen zunächst aus den herkömmlichen OPACs per Screenscraping ausgelesen, bevor in der Folge direkte Anbindungen an die dahinter liegenden Ausleihsysteme entstanden, die im weiteren Verlauf so ausgebaut wurden, dass auch alle konto-bezogenen Aktivitäten wie Verlängerungen, Vormerkungen und Magazinbestellungen darüber abgewickelt werden konnten. Damit konnten die Discovery-Systeme einen wesentlichen Teil der Funktionen aus den herkömmlichen OPACs abbilden und waren damit in der Lage, die Altsysteme abzulösen.

Unabhängig von der DAIA- bzw. PAIA-Schnittstelle blieben die Verfügbarkeitsnachweise für elektronische Medien sowie rein bibliografische Daten ohne Bestandsnachweise weiterhin problematisch, insbesondere dann, wenn kein Link Resolver eingesetzt wird, der die bestmögliche Zugänglichkeit für jeweils aktuelle Benutzungskontexte ermittelt. Im beluga-core-Konsortium, einer Anwendergemeinschaft von VuFind in norddeutschen Universitätsbibliotheken, wurde aus diesem Grund mit dem Webdienst DAIA+ eine Lösung geschaffen, die mehrstufige und konfigurierbare Abfragen nach Verfügbarkeiten erlaubt, u. a. Anfragen an Journals Online and Print.[21]

Der hohe Aufwand für gut funktionierende und kontextspezifische Verfügbarkeitsabfragen hat jedoch den Bedarf an Electronic-Resource-Management-Systemen verdeutlicht, mit dem die Lizenz- und Zugangsinformationen verwaltet werden und die in den Bibliotheksmanagement-Systemen der älteren Generation fehlen. In der Konsequenz wurde entsprechenden Modulen in parallel entstandenen Generation von Bibliotheksmanagement-Systemen wie Alma[22] von ExLibris einschließlich dem darin aufgegangenen System Intota, Worldshare Management Services (WMS) von OCLC[23] oder auch Folio[24] besondere Aufmerksamkeit zuteil. Diese wurden und werden teilweise schon sehr früh und unabhängig von Modulen für andere Workflows an ausgewählten Standorten in den Produktiveinsatz übernommen, aktuell beispielsweise das entsprechende Folio-Modul an einigen deutschen Bibliotheken. Ausschlaggebend für diese Entscheidungen bei den Early Adopters waren aber eher die gewünschten Verbesserungen in internen Geschäftsgängen als die bei der Informationsversorgung der Nutzer*innen.

Mit dem Vorschlag von Simone Kortekaas und Bianca Kramer zur reinen Fokussierung auf die Optimierung von Verfügbarkeits- und Zugangsinformationen und dem Verzicht auf bibliothekseigene Recherchetools wurde um 2013/2014 gleichsam der Tiefpunkt des Hype Zyklus erreicht.[25] Nicht wenige Bibliothekar*innen sahen, dass sich für das gezielte Suchen und insbesondere auch das Entdecken von Informationen andere Plattformen als bibliothekarische Discovery-Systeme durchgesetzt hatten, und in der Folge überlegt werden müsse, ob man die Investitionen tätigen solle.[26]

Dieser Tiefpunkt der Erwartungshaltung hatte jedoch mindestens eine weitere große Ursache: schlechte innerbetriebliche Akzeptanz der frühen Discovery-Systeme. Die Gründe dafür waren vielschichtig, ein zentraler Aspekt dürfte oftmals unterbliebene systematische Einbeziehung des Bibliothekspersonals in die Entwicklung der neuen Systeme sein, die in der Regel in der Regie von IT-Abteilungen lagen. Doch auch dort, wo Einbeziehung erfolgte, gab es oftmals mehr Kritik als Applaus.[27] Durch die gänzlich andere Funktionsweise der Suchmaschinentechnologie konnten die gelernten Suchstrategien wie die Verwendung Boole’scher Operatoren nicht mehr wie gewohnt angewendet werden, und das standardmäßig verwendete Ranking nach Relevanz wurde vielfach als intransparent und unrichtig wahrgenommen. Zudem wurden die Metadaten in ungewohnter Form und mitunter aufgrund noch nicht ausgereifter Mappings nicht vollständig oder sinnvoll angezeigt und die Nutzung von bibliothekarischen Normdaten blieb hinter den Möglichkeiten der herkömmlichen Kataloge zurück. Hier öffnet sich das „Tal der Enttäuschung“.

Nur wenige und große Bibliotheken haben den Aufgabenbereich des Metadatenmanagements für sich identifiziert, in dem es über die reine Katalogisierung hinaus darum geht, Metadaten in unterschiedlichen Szenarien nutzbar zu machen, indem beispielsweise eigene Mappings von Formaten erstellt werden.[28] Auch haben sich entsprechende Aus- und Weiterbildungsangebote nur langsam etabliert. Auch heute noch orientieren sich Katalogisierungsabteilungen in ihrer Arbeitsweise im Wesentlichen an herkömmlichen Erfassungs- und Präsentationssystemen und denken die Nutzung der erstellten Daten in Discovery-Systemen und anderen Kontexten nur selten aktiv mit. Hierzu mag beigetragen haben, dass sich die Katalogisierenden spätestens seit 2015 durch den Umstieg auf das Regelwerk „Resource Description and Access“ (RDA) herausgefordert sahen.[29]

Tatsächlich gab es jedoch wenige Gründe, eigenes Wissen vor Ort aufzubauen, da die Suchindices an anderer Stelle aufgebaut werden und in der Folge auch das Metadatenmapping als Dienstleistung eingekauft wird. Mit dem K10plus Zentral hat sich neben den kommerziellen Lösungen ein kostenfreier Index aus bibliothekarischer Hand etabliert, der von zwei Verbundzentralen gemeinsam angeboten wird.[30] Zwar sind die Anwender*innen in einer Arbeitsgemeinschaft organisiert, die bibliothekarische Basis hat jedoch wenig Wissen darüber, wie eigene Katalogisate in den Index gelangen und welche Möglichkeiten der Einflussnahme auf die Indexierung bestehen. Damit hat sich – sicherlich unbeabsichtigt – eine gewisse Entfremdung von Bibliothekspersonal und Discovery Service eingestellt, die durch fehlende strukturierte Angebote zum Aufbau von Wissen über Metadatenmanagement, Suchmaschinentechnologie und andere Aspekte weiter verstärkt wird.

Dennoch haben einige innovationsoffene Bibliotheken weiter auf Discovery-Systeme als primäres Instrument der Recherche gesetzt und mitunter sogar den herkömmlichen OPAC aus dem Informationsangebot herausgenommen. Sie nutzten die Möglichkeiten, bestehende Infrastrukturen wie den K10plus Zentral oder die PAIA-Schnittstelle mitzugestalten und diese weiter zu etablieren, beispielsweise durch Aufnahme der PAIA-Schnittstelle in das Standard-Leistungsverzeichnis des GBV oder durch die Entwicklung eigenen PAIA-Schnittstellen, wie sie die Bibliothek der TU Dortmund für das dort verwendete Bibliotheksmanagementsystem von Sisis bereitgestellt hat. Diese Bibliotheken haben dafür durchaus erhebliche Personalkapazitäten bereitgestellt (oder Entwicklungsdienstleistungen eingekauft), damit aber den „Pfad der Erleuchtung“ im Sinne des Hype-Zyklus eingeschlagen, der den Weg für einen breiten Einsatz ebnete.

Abb. 3 
Eine beluga core-Installation 2021: Im Vergleich zu früheren Versionen haben die Verfügbarkeitsinformationen inzwischen einen prominenten Platz. Die bibliografischen Angaben sind sehr ausführlich
Abb. 3

Eine beluga core-Installation 2021: Im Vergleich zu früheren Versionen haben die Verfügbarkeitsinformationen inzwischen einen prominenten Platz. Die bibliografischen Angaben sind sehr ausführlich

3 Das dritte Jahrzehnt: Vom Pragmatismus getriebene Marktdurchdringung

Discovery-Systeme als moderne Variante des OPACs haben inzwischen eine relativ hohe Marktdurchdringung, so dass man in der Tat von einem Plateau der Produktivität sprechen kann, das diesbezüglich erreicht wurde. Allerdings ist aus unterschiedlichen Gründen zu erwarten, dass sich Discovery-Systeme als Produkte weiter wandeln werden.

Zum einen verändert sich die Dienstleistungslandschaft von und um Bibliotheken weiterhin relativ dynamisch. Neben den offenen Lösungen wie VuFind und Folio spielen kommerzielle Anbieter von Discovery-Systemen weiterhin eine wichtige Rolle: In der Schweiz wurde 2021 eine auf eine landesweite Rechercheplattform[31] auf Basis von Primo ins Leben gerufen und für die zahlreichen deutschen Anwenderbibliotheken des Bibliotheksmanagement-Systems Alma aus dem gleichen Hause ist Primo ebenfalls das Instrument der Wahl. Auch andere Bibliotheksmanagement-Systeme der neuen Generation verfügen über eigene Discovery-Module wie beispielsweise WMS von OCLC. Daneben spielen weiterhin auch Eigenentwicklungen eine Rolle, wie die Digibib des Hochschulbibliothekszentrums Nordrhein-Westfalen[32] oder die Eigenentwicklung der UB Paderborn, die auf ElasticSearch (statt des in VuFind genutzten Solr) basiert.[33] Der Markt für Discovery-Systemen selbst, für Bibliotheksmanagement-Systeme als darunter liegende Schicht sowie für andere Bausteinen für die wissenschaftliche Informationsversorgung und -verarbeitung ist noch immer in einer gewissen Bewegung, nicht zuletzt auch aufgrund der Vielzahl von Fusionen und Übernahmen bei den kommerziellen Anbietern.

Vor allem aber sind viele Versprechen der ursprünglichen Idee des „entdeckenden Suchens“ noch nicht umgesetzt. Bibliothekarische Discovery-Systeme standen von Beginn an in Konkurrenz zu anderen Suchinstrumenten mit einem umfassenden, viele Wissenschaftsdisziplinen abdeckenden Charakter. Dazu gehören sowohl lang etablierte Tools wie Web of Science mit seiner traditionsreichen Geschichte als auch relative Newcomer wie Scopus und Google Scholar. Die oben angedeutete Verwandtschaft von Discovery-Systemen und Forschungsinformations- und Publikationssystemen hat Wissenschaftsverlag Elsevier schon früh erkannt und sein Portfolio über Scopus hinaus durch den Ankauf von Lösungen zur Literaturverwaltung und zum Publizieren weiterentwickelt.[34] Es sind auch hier nicht mehr nur Bibliotheken oder Fachgemeinschaften, die die Produzierenden von wissenschaftlichem Content mit Unterstützungsangeboten umwerben. Allerdings gelingt es Bibliotheken zunehmend, offene Infrastrukturen, Daten- und Publikationsformen als zentralen Wert ihrer Dienstleistungen zu positionieren und damit konkurrenzfähig zu sein.

Gleichwohl sind jedoch mit neuen, zumindest teilweise offenen Zitations-Indices weitere Konkurrenten für Bibliotheken auf dem Feld der Discovery-Systeme entstanden, die in ihrem Funktionsumfang teilweise recht weit über die Systeme aus bibliothekarischer Hand hinaus gehen, u. a. bezüglich der Analyse und Visualisierung von Treffermengen. Die Tatsache, dass diese Indices vor allem den offenen Index von CrossRef zur Grundlage nehmen, hat bereits dafür gesorgt, dass weitere Verlage ihre Daten an CrossRef liefern und damit trotz der eigenen Plattformen dazu beitragen, dass sich zumindest bezüglich der offenen Bereitstellung von Metadaten eine relative „Openness“ durchsetzt.[35]

Diese „Openness“ ist auch eines der Versprechen von Folio, das sich als vielversprechendes Produkt für Bibliotheksmanagement-Systeme aktuell am Anfang des Hype-Zyklus befindet, und sich aufgrund seiner Architektur als offener Plattform sehr gut mit bestehenden Discovery-Lösungen integrieren lassen wird. Im Gegensatz zu kommerziellen Lösungen wie Alma beinhaltet Folio kein eigenes Discovery-Modul. Diese sehr bewusste Entscheidung lässt Bibliotheken Wahlfreiheit bei Discovery-Lösungen und tatsächlich bietet der Markt auch durchaus verschiedene quelloffene und kommerzielle Lösungen an, wobei sich VuFind möglicherweise noch stärker zu einem Standard entwickeln wird, insbesondere für künftige Folio-Bibliotheken. Es wird hier interessant sein zu beobachten, inwieweit die steigende Bedeutung von Folio einen Einfluss auf die VuFind-Community haben wird. Die beiden größeren Sub-Communities in Deutschland, finc und beluga-core, sind möglicherweise einmal mehr aufgerufen, Ressourcen zu bündeln, damit die durch Folio absehbar steigenden Anforderungen an Entwicklungsarbeit in Bibliotheken abgedeckt werden können.

Der grundsätzliche Bedarf an Discovery-Lösungen wird weiterhin bestehen bleiben, sich wegen der Entwicklungen bei Folio und den forschungsnahen Diensten sogar möglicherweise verstärken bzw. verändern. Eine Rückbesinnung auf die in der Frühphase gestellten Fragen scheint angebracht: Während in den vergangenen Jahren viel Energie darauf verwendet wurde, die klassischen OPAC-Funktionalitäten möglichst vollumfänglich nachzubilden, könnte nun eine Phase der Rückbesinnung auf die Mehrwerte und die Gebrauchstauglichkeit von Discovery-Systemen beginnen.

Es ist richtig, dass die aktuelle Generation der Discovery-Systeme ihrem Namen zu wenig Ehre macht, zu wenig entdeckendes Suchen ermöglicht. Die Darstellung von inhaltserschließenden Daten sowie der Nutzung von normiertem Vokabular sind bislang nahezu durchgängig hinter den Möglichkeiten zurückgeblieben, die beispielsweise die Bereitstellung der Gemeinsamen Normdatei als Linked Open Data bietet.[36] Hiermit stünden Daten bereit, die sowohl das Entdecken von Wissenszusammenhängen erlauben als auch bei der Formulierung von Suchanfragen unterstützen könnten. Parallel haben sich in den vergangenen Jahren die Möglichkeiten der automatisierten inhaltlichen Erschließung relativ gut weiterentwickelt.[37] Eine nachträgliche automatisierte inhaltliche Erschließung von bibliografischen Daten ist damit grundsätzlich möglich, darüber hinaus werden bei den oben erwähnten Zitations-Indices bereits Erschließungsmethoden auf Grundlage von künstlicher Intelligenz angewendet.[38] An der Bayerischen Staatsbibliothek in München ist seit 2017 ein kommerzieller Dienst im Einsatz, der auf Grundlage von künstlicher Intelligenz und maschinellem Lernen eine Visualisierung von Wissenszusammenhängen vornimmt und ein besonderes Potenzial bei hoch spezialisierten Sammlungen zu haben scheint.[39]

Allerdings erfordert die Entscheidung für entsprechende Verfahren einen grundsätzlichen Mut dazu, Erschließungskompetenzen von Menschen an Maschinen abzugeben. Dies wird bei kommerziellen Anbietern wie Digital Science (dem Unternehmen hinter Dimensions) ganz offensichtlich nicht grundsätzlich hinterfragt. Dagegen hat die Entscheidung der Deutschen Nationalbibliothek zur automatisierten Vergabe von Schlagworten durchaus für Kontroversen gesorgt – wenn auch in der Hauptsache wegen der Qualität der Erschließung.[40] Gleichzeitig wird es unausweichlich sein, automatisierte Verfahren einzusetzen, wenn man große und heterogen erschlossene Datenbestände für Funktionen des entdeckenden Suchens aufbereiten will.

Darüber hinaus haben die Discovery-Systeme jetzt und in naher Zukunft das Potenzial, weitere, institutionsspezifische Zusammenhänge aufzuzeigen, nämlich dann, wenn sie mit Hochschulbibliografien, Repositorien und Forschungsinformationssystemen integriert werden. Während diese Systeme auf Workflows für die Einreichung, Dissemination und Archivierung von Forschungsergebnissen fokussiert sind, könnte das Discovery-System eine zentrale Rolle für die Recherche danach sowie einer kontextuellen Aufbereitung spielen. Jenseits dessen ließen sich auch Literaturlisten von Forschenden und Lehrenden über Discovery-Systeme bereitstellen und damit sowohl einen thematischen Einstieg in die Literaturrecherche erleichtern als auch in einem individuellen, lokalen Ranking berücksichtigt werden. Diese Ansätze sind jedoch bislang nicht erprobt worden.

Alle Entscheidungen über den Funktionsumfang eines Discovery-Systems und das Maß seiner Integration mit anderen Elementen der universitären IT-Infrastruktur setzen jedoch voraus, dass entsprechende fachliche Kompetenzen vorliegen. Die Weiterentwicklung von bibliothekarischem Personal über einschlägige Fortbildungsangebote, beispielsweise der „Zertifikatskurs Data Librarian“[41] an der Technischen Hochschule in Köln, ist von zentraler Bedeutung, wenn man Discovery-Systeme über das funktionale Niveau eines klassischen OPACs hinaus bringen möchte.

4 Lessons Learned? Was wir aus dem Entwicklungszyklus der Discovery-Systeme lernen können

In der Nachbetrachtung des Hype-Zyklus eines jeden Produktes stellt sich zwangsläufig die Frage, ob es einen Lerneffekt gibt, der bei zukünftiger Produktentwicklung sowohl den Gipfel der überzogenen Erwartungen als auch das Tal der Enttäuschungen einerseits zeitlich verkürzt, es andererseits aber auch nicht so extrem bezüglich der wechselnden Erwartungshaltung ausschlagen lässt.

Aus unserer Sicht lässt sich die Erfahrung in neue Produktentwicklung mitnehmen, wenn zum einen die Stakeholder ähnlich sich – die Erfahrungen bereits gemeinsam gemacht wurden – und zum anderen die Produkte vergleichbar in ihrer Zielsetzung sind.

Für Softwareentwicklung in Bibliotheken heißt das vor allem Folgendes:

Den Leidensdruck nicht zu stark wachsen lassen: Der Hype um die Discovery-Systeme war auch deshalb so enorm, weil die vorherigen Lösungen zu lange keiner Innovation unterzogen wurden. So wurde der Leidensdruck in Bezug auf die Nutzung dieser Systeme sehr groß und damit auch die Erwartungshaltung an die neue Generation Katalogsysteme. Ein so hoher Leidensdruck führt zwangsläufig zu Enttäuschungen, weil das neue System nicht aller Erwartungen gerecht werden kann.

Mit dem Unperfekten leben: Im Zuge der Maßnahmen in der Corona-Krise wurde immer wieder ein abgewandelter Spruch des französischen Philosophen Voltaire zitiert: Das Perfekte ist der Feind des Guten. Damit wurde Kritik daran geäußert, dass keine Maßnahmen getroffen wurden, weil man sich der Qualität der möglichen Maßnahmen nicht sicher war. Diese Kritik lässt sich auch auf die Erwartungshaltung der Discovery-Systeme übertragen. Viele Systeme wurden viel später als möglich eingeführt – nicht, weil sie schlechter waren als die Vorgängersysteme, sondern weil die den gesammelten Wünschen an zukünftigen Systemen nicht vollständig gerecht wurden. Diese Verzögerung in der Auslieferung schürten aber die Ausschläge in der Erwartungskurve – sowohl nach oben als auch nach unten. Für zukünftige Produktentwicklung ist es deshalb sinnvoll, nicht nach der Perfektion zu streben, sondern schon bei ersten Verbesserungen zum IST-Zustand auch ins Wagnis einer Veröffentlichung zu gehen.

Release early – release often: Um die Ausschläge in der Erwartungshaltung klein zu halten und möglichst früh den Weg der pragmatischen Marktdurchdringung einzuschlagen, ist es notwendig, dass die Zielgruppe möglichst schnell mit dem neuen Produkt in Berührung kommt. Denn ein tatsächlicher Umgang mit dem System verhindert das Wachsen überzogener Erwartungshaltungen. Nicht die Vorstellung der zukünftigen Nutzung schürt die Erwartung, sondern das Alltagshandeln. So entstehen pragmatische Anforderungen für Verbesserungen als der täglichen Nutzung heraus.

5 Ein konkreter Ausblick: Die Erfahrung der Discovery-Systeme nutzen für den Hype-Zyklus bei den forschungsnahmen Diensten

Auf dem Weg zu einer breiten Marktdurchdringung konkurrierten Discovery-Systeme in vielerlei Hinsicht mit zwischenzeitlich neu entstandenen Anforderungen an Bibliotheken bezüglich der Forschungs- und Publikationsunterstützung, zusammenfassend auch als forschungsnahe Dienste bezeichnet. Hier überschnitt sich die Hype-Zyklus-Kurve der Discovery-Systeme, die sich in Richtung pragmatischer Marktdurchdringung befand, mit der Kurve für Forschungsinformationssysteme, die sich gerade auf dem Anstieg zum Gipfel der überzogenen Erwartungen befand.

Der Aufbau von forschungsnahen Dienstleistungen erfordert auch aktuell noch viel Aufmerksamkeit sowie Investitionen in einschlägige Technologien und den entsprechenden Kompetenzerwerb. Die diesbezüglich zu treffenden strategischen Entscheidungen sind in ihrer Komplexität durchaus vergleichbar mit denen, die im Kontext der Einführung eines Discovery-Systems zu treffen sind. Dabei können die folgenden sechs strategischen Fragen und deren Beantwortung aus der Perspektive der Geschichte der Discovery-Systeme helfen, dass bei den forschungsnahen Diensten möglichst zeitnah der Pfad der pragmatischen Marktdurchdringung eingeschlagen wird und nicht wieder die Ausschläge im Hype-Zyklus so extrem sind, wie bei den Discovery-Systemen:

An wen genau richtet sich der Dienst? Bei der Einführung eines Discovery-Systems haben es diejenigen Einrichtungen leichter, die eine klare Antwort auf diese Frage haben, zum Beispiel die Fokussierung auf jüngere Studierende im Bachelor-Programm und die daraus folgende Ausrichtung der Implementierung auf diese Zielgruppe. Gleichermaßen kann die Publikation von Forschungsdaten beispielsweise in einem ersten Schritt für eine einzelne Fakultät oder Wissenschaftscommunity aufgebaut werden.

Welche technischen Lösungen passen am besten in die bestehenden Infrastrukturen an der Universität bzw. im Bibliotheksverbund?Discovery-Systeme brauchen die Anbindung an Bibliotheksmanagement-Systeme, Repositorien sollten Daten an Discovery-Systeme sowie andere, z. B. fachliche Repositorien liefern, in beiden Fällen sind Kenntnisse aus dem Bereich Metadatenmanagement notwendig. Darüber hinaus dürfte vielerorts das Fehlen von zentralen Strukturen für das Identity Management eine Herausforderung sein. Für viele Systeme haben sich lebendige Anwendungscommunities herausgebildet, in denen Erfahrungen und Best Practices ausgetauscht werden oder auch gemeinsame Entwicklungsziele gemeinschaftlich finanziert werden.[42]

Welche Kompetenzen sind für Aufbau und Betrieb notwendig? Geht man von der Verwendung von Open-Source-Lösungen aus, sind Fragen des Hostings, der Installation und Wartung gleichermaßen gefragt sowie Kenntnisse in der Software-Entwicklung, um die Software an lokale Bedarfe anzupassen. Die Ermittlung dieser Bedarfe und die Begleitung der Projekte, die in der Regel verschiedene Stakeholder aus Bibliothek und Hochschule haben, erfordert Kompetenzen im Bereich Projektmanagement.

Können diese Kompetenzen aufgebaut werden oder müssen sie zumindest teilweise eingekauft werden? Es fällt auf, dass für den Aufbau von forschungsnahen Diensten oftmals genau dafür ausgewiesene Stellen ausgeschrieben werden – sowohl im technischen als auch im konzeptionellen Bereich. Im Gegensatz dazu werden die Discovery-Systeme in der Regel eher nebenbei betrieben, ausgewiesene Stellen dafür sind die Ausnahme. Das mag damit zusammenhängen, dass es für Discovery-Systeme die bereits erwähnten Infrastruktur-Angebote gibt, die sich allerdings durchweg eher im technischen Bereich bewegen. Bibliothekarische Stellen mit einem ausgewiesenen Anteil für die konzeptionelle Betreuung von Discovery-Systemen sind eher selten – offenbar wird davon ausgegangen, dass diese Kompetenzen qua bibliothekarischer Ausbildung und/oder Erfahrung vorhanden sind. Dabei wird jedoch möglicherweise außer Acht gelassen, dass es bei Discovery-Systemen um mehr gehen sollte als die Nachbildung der OPAC-Funktionalität unter einer neuen Oberfläche.

Welche Synergien gibt es? Ein Discovery-System, das „out of the box“ installiert wurde und wenig lokale Anpassungen enthält, kann durch die Einführung eines forschungsnahen Dienstes wie einem Repository zusätzliche Bedeutung erlangen, indem es die Daten aus dem Repository in besonders prominenter Weise zugänglich und auf diese Weise die Schwerpunkte der Forschung der jeweiligen Hochschule sichtbarer macht. Darüber hinaus gibt es viele andere Szenarien, in denen ein wechselseitiger Bezug zwischen Discovery-Systemen und den forschungsnahen Diensten sowohl konzeptionell als auch technisch denkbar ist.

Über die Autoren

Anne Christensen

effective WEBWORK GmbH, Neuer Wall 18, D-20354 Hamburg

Matthias Finck

effective WEBWORK GmbH, Neuer Wall 18, D-20354 Hamburg

Literaturverzeichnis

Antelman, Kristin; Lynema, Emily; Pace, Andrew K. (2006): Toward a 21st century library catalog. In: Information technology and libraries, 25 (3), 128–39.10.6017/ital.v25i3.3342Search in Google Scholar

Beckmann, Regine; Hinrichs, Imma; Janßen, Melanie; Milmeister, Gérard; Schäuble, Peter (2019): Der Digitale Assistent DA-3. In: o-bib, 6 (3), 1–20. DOI: 10.5282/o-bib/2019H3S1-20.Search in Google Scholar

Blenkle, Martin; Ellis, Rachel; Haake, Elmar (2009): Next generation library catalogues: review of E-LIB Bremen. In: Serials, 22 (2), 178–81.10.1629/22178Search in Google Scholar

Blenkle, Martin; Bodem, Claudia (2014): Mission Possible? Erfahrungen & Empfehlungen zur Einführung von Discovery-Systemen. 103. Deutscher Bibliothekartag (Bremen 2014).Search in Google Scholar

Christensen, Anne (2010): Katalog 2.0 im Eigenbau. Das beluga-Projekt der Hamburger Bibliotheken. In: Handbuch Bibliothek 2.0. Berlin, Boston: de Gruyter Saur, 317–32.Search in Google Scholar

Christensen, Anne (2013): Eight hypotheses why librarians don’t like discovery | Journal of EAHIL. In: Journal of the EAHIL 9. Verfügbar unter http://ojs.eahil.eu/ojs/index.php/JEAHIL/article/view/150.Search in Google Scholar

Christensen, Anne (2013): Next generation catalogues: what do users think? In: Catalogue 2.0. The future of the library catalogue, ed. by Sally Chambers. London: Facet Publ, 1–15.Search in Google Scholar

Dempsey, Lorcan (2013): Thirteen Ways of Looking at Libraries, Discovery, and the Catalogue: Scale, Workflow, Attention. In: Catalogue 2.0. The future of the library catalogue, ed. by Sally Chambers. London: Facet Publ, 179–202.Search in Google Scholar

DFG (Deutsche Forschungsgemeinschaft) (1998): Weiterentwicklung der überregionalen Literaturversorgung: Memorandum. In: ZfBB, 45 (2), 135–64. Verfügbar unter https://www.dfg.de/download/pdf/foerderung/programme/lis/weiterentwicklung_literaturversorgung.pdf.Search in Google Scholar

Finck, Matthias (2016): Klein aber oho! Einfache kooperative Softwareentwicklung in Bibliotheken – am Beispiel von beluga core. In: B.I.T. online, 4 (19), 315–20.Search in Google Scholar

Foster, Nancy Fried; Gibbons, Susan (Ed.) (2007): Studying students. The undergraduate research project at the University of Rochester. University of Rochester. Chicago: Association of College and Research Libraries.Search in Google Scholar

Gillitzer, Berthold (2020): Die semantische Suchmaschine Yewno – Erfahrungen, Vermittlung und Perspektiven. Innocamp 2020. TH Wildau, 05.11.2020. Verfügbar unter https://www.th-wildau.de/files/Bibliothek/Bilder/InnoCamp_2020/Innocamp_2020_Yewno.pdf.Search in Google Scholar

Goebel, Ralf; Diedrichs, Reiner (2017): K10plus – der Katalog für zehn Bundesländer, die Stiftung Preußischer Kulturbesitz und weitere Einrichtungen. 106. Deutscher Bibliothekartag (Frankfurt am Main 2017).Search in Google Scholar

Hapke, Thomas (2010): Vom Aprilscherz zur Zukunft des Bibliothekskataloges. Verfügbar unter https://blog.hapke.de/libraries-in-general/vom-aprilscherz-zur-zukunft-des-bibliothekskataloges/.Search in Google Scholar

Herzog, Christian; Hook, Daniel; Konkiel, Stacy (2020): Dimensions: Bringing down barriers between scientometricians and data. In: Quantitative Science Studies, 1 (1), 387–95. DOI: 10.1162/qss_a_00020.10.1162/qss_a_00020Search in Google Scholar

Jeude, Kirsten; Schafrick, Anneka (2012): „Wir sprechen die Sprachen der Daten“ – Metadaten-Management im Leibniz-Informationszentrum Wirtschaft. 101. Deutscher Bibliothekartag (Hamburg 2012).Search in Google Scholar

Kasprzik, Anna; Kett, Jürgen (2018): Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND. In: o-bib, 5 (4), 127–40. DOI: 10.5282/O-BIB/2018H4S127-140.Search in Google Scholar

Katz, Demian; Nagy, Andrew (2013): VuFind: Solr Power in the library. In: Library automation and OPAC 2.0: Information access and services in the 2.0 landscape. IGI Global.10.4018/978-1-4666-1912-8.ch004Search in Google Scholar

Kemner-Heek, Kirstin (2011): Konzeption und Angebot zukünftiger Bibliotheksmanagementsysteme: Bestandsaufnahme und Analyse. Masterarbeit, Institut für Informationswissenschaft der Fachhochschule Köln. Verfügbar unter http://nbn-resolving.de/urn:nbn:de:hbz:79pbc-opus-5239.Search in Google Scholar

Keßler, Kristof; Kroll, Hermann; Wawrzinek, Janus; Draheim, Christina; Wulle, Stefan; Stump, Katrin; Balke, Wolf-Tilo (2019): PubPharm – Gemeinsam von der informationswissenschaftlichen Grundlagenforschung zum nachhaltigen Service. In: ABI Technik, 39 (4), 282–94. DOI: 10.1515/abitech-2019-4005.10.1515/abitech-2019-4005Search in Google Scholar

Klatt, Rüdiger; Gavriilidis, Konstantin; Kleinsimlinghaus, Kirsten; Feldmann, Maresa (2001): Nutzung elektronischer wissenschaftlicher Information in der Hochschulausbildung. Barrieren und Potenziale der innovativen Mediennutzung im Lernalltag der Hochschulen: Endbericht. Universität Dortmund. Verfügbar unter https://hdms.bsz-bw.de/files/298/nutzungwissinfo.pdf.10.1007/978-3-322-93247-1Search in Google Scholar

Kortekaas, Simone; Kramer, Bianca (2014): Thinking the unthinkable – doing away with the library catalogue. In: Insights: the UKSG journal, 27 (3), 244–48. DOI: 10.1629/2048-7754.174.10.1629/2048-7754.174Search in Google Scholar

Koster, Lukas (2012): Discovery tools: a rearguard action? ELAG. European Library Automation Group. Palma de Mallorca. Verfügbar unter https://de.slideshare.net/lukask/discovery-tools-a-rearguard-action.Search in Google Scholar

Kreutzer, Ralf T. (2015): Digitale Revolution. Auswirkungen auf das Marketing. Wiesbaden: Springer Gabler (essentials). Verfügbar unter http://dx.doi.org/10.1007/978-3-658-09394-5.10.1007/978-3-658-09394-5Search in Google Scholar

Linden, Alexander; Fenn, Jackie (2003): Understanding Gartner’s hype cycles. In: Strategic Analysis Report N R-20-1971. Gartner, Inc 88.Search in Google Scholar

Schonfeld, Roger C. (2017): Elsevier acquires institutional repository provider bepress. The Scholarly Kitchen. Verfügbar unter https://scholarlykitchen.sspnet.org/2017/08/02/elsevier-acquires-bepress/.Search in Google Scholar

Staats- und Universitätsbibliothek Hamburg (Hrsg.): beluga – Katalog der Hamburger Bibliotheken. Verfügbar unter https://beluga-blog.sub.uni-hamburg.de/blog/.Search in Google Scholar

Steele, Tom (2009): The new cooperative cataloging. In: Library Hi Tech. DOI: 10.1108/07378830910942928.10.1108/07378830910942928Search in Google Scholar

Swissbib: Blog zum Metakatalog swissbib – Projektstand, Technologien, Entwicklungen. Verfügbar unter https://swissbib.blogspot.com/.Search in Google Scholar

Tay, Aaron (2020): The next generation discovery citation indexes — a review of the landscape in 2020 (I). In: Academic librarians and open access, 07.10.2020. Verfügbar unter https://medium.com/a-academic-librarians-thoughts-on-open-access/the-next-generation-discovery-citation-indexes-a-review-of-the-landscape-a-2020-i-afc7b23ceb32.Search in Google Scholar

tub.find Blog: Das Blog zu unserem Discovery-Tool tub-find. Hg. v. Universitätsbibliothek der Technischen Universität Hamburg. Verfügbar unter https://www.tub.tuhh.de/tubfind-blog/.Search in Google Scholar

Universitätsbibliothek Leipzig (Hrsg.): finc. Verfügbar unter https://finc.info/.Search in Google Scholar

Voß, Jakob; Reh, Uwe (2009): Verfügbarkeitsrecherche mit DAIA. 98. Deutscher Bibliothekartag. Erfurt. Verfügbar unter https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/year/2009/docId/620.Search in Google Scholar

Wiesenmüller, Heidrun (2017): Erste Erfahrungen mit RDA an wissenschaftlichen Universalbibliotheken in Deutschland – Ergebnisse aus Fokusgruppengesprächen mit Katalogisierenden. In: o-bib, 4 (1), 170–200. DOI: 10.5282/o-bib/2017H1S170-200.Search in Google Scholar

Wiesenmüller, Heidrun (2018): Maschinelle Indexierung am Beispiel der DNB. In: o-bib, 5 (4), 141–53. DOI: 10.5282/o-bib/2018H4S141-153.Search in Google Scholar

Online erschienen: 2021-11-27
Erschienen im Druck: 2021-12-31

© 2021 Anne Christensen und Matthias Finck, publiziert von Walter de Gruyter GmbH, Berlin/Boston

Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Downloaded on 25.4.2024 from https://www.degruyter.com/document/doi/10.1515/bfp-2021-0039/html
Scroll to top button