• Passer à la navigation principale
  • Passer au contenu principal

Pleiade

Management & Consultancy

  •  
  • Conseil et recherche
  • Nous connaître
  • Clients
  • Publications
  • Blog
  • Contact
  • Néerlandais
  • Anglais

Maurits van der Graaf

Digitaal erfgoed: in hoeverre wordt het gebruikt en hoe meet je dat eigenlijk?

18 septembre 2023 by Maurits van der Graaf

Praktische insteek

In 2021 ging een werkgroep van het Netwerk Digitaal Erfgoed van start om de hierboven gestelde vraag te beantwoorden. Er was al eerder onderzoek geweest, maar dat was nogal theoretisch van aard. Met deze werkgroep wilden we graag ook praktische resultaten bereiken. We hadden een aantal zeer inhoudelijke discussies en maakten een vragenlijst om rond te sturen aan erfgoedinstellingen. Door een gelukkig toeval konden we deze vragenlijst combineren met de Eenmeting Digitaal Erfgoed.

Het is nu 2023 hoor!

De oplettende lezer heeft al het jaartal van 2021 gezien. Het is nu wel al 2023. Wat is er in de tussentijd gebeurd? Het rapport werd 1 maart 2022 opgeleverd. De Rijksdienst Cultureel Erfgoed, die als opdrachtgever optrad, wilde de resultaten graag presenteren in de Erfgoedmonitor. Dit heeft nogal wat vertraging opgelopen (o.a. vanwege personeelstekort). Maar nu is het dan zover en de resultaten zijn te raadplegen in de Erfgoedmonitor.

Drie highlights

Ik wil in deze blog graag drie highlights naar voren halen:

  • We maakten in de vragenlijst onderscheid tussen enerzijds erfgoedsites (opgezet om digitaal erfgoed te presenteren) en anderzijds gemengde sites, opgezet voor corporate informatie (zoals de openingstijden van een museum en de prijs van de toegangskaartjes) die ook digitaal erfgoed presenteren. Dit onderscheid bleek terecht: bij een erfgoedsite trekt het digitaal erfgoed gemiddeld 90% van alle gebruik, bij een gemengde site gemiddeld 42%.
  • We onderscheiden 5 algemene indicatoren: 4 indicatoren voor gebruik (aantal bezoekers, paginaweergaven, sessies, sessieduur) en 1 voor het aanbod: hoeveel digitale erfgoedobjecten worden op de site aangeboden. Opvallende resultaten: slechts 7% van de sites meet alle 5 indicatoren, 41% (!) houdt helemaal niets bij. Ook opvallend: een meerderheid van de sites weten niet hoeveel digitale erfgoedobjecten zij via de site aanbieden.
  • De algemene indicatoren zijn natuurlijk gewoon standaard gebruikscijfers die programma’s als Google Analytics bijhouden. We hebben ook een slag gemaakt om erfgoedtype-gebonden indicatoren op te stellen: voor archiefmaterialen, objecten, verhalen, bibliotheekmaterialen, en audiovisuele materialen. Dit deden we telkens aan de hand van drie vragen: (1) wat hebben we als erfgoedinstelling gedaan; (2) hoe doen we het?; (3) wat is de toegevoegde waarde voor de gebruiker?. Hoe dat precies uitpakt, staat allemaal in het rapport te lezen (zie de link naar het rapport in de Erfgoedmonitor).

Classé sous :Blog

In memoriam Leo Waaijers

12 août 2023 by Maurits van der Graaf

Vorige week kwam het bericht dat Leo Waaijers op 85-jarige leeftijd is overleden. Een grote en onverwachte schok omdat ik enkele weken daarvoor nog met hem uit eten was geweest.

In 1988 trad Leo de wereld binnen van de wetenschappelijke bibliotheken, eerst als was bibliothecaris van de TU Delft (waar hij het iconische bibliotheekgebouw van de TU Delft realiseerde – binnen het budget zoals hij graag opmerkte), toen van de Wageningse universiteit, daarna manager bij het SURF platform ‘ICT en onderzoek’. Na deze banen in loondienst werd hij Open Access consultant, richtte QOAM op en werd gastonderzoeker bij het CWTS in Leiden. Leo is nooit met pensioen gegaan!

Leo was een onvermoeibare strijder vóór Open Access en tegen de machtspositie van de grote wetenschappelijke uitgevers. Hij was talloze keren auteur en spreker op congressen, waar hij – vaak licht provocatief – innovatieve ideeën naar voren bracht en voor actie pleitte. En hij was een meester in het bedenken van concrete acties om iets in gang te zetten.

Zijn nalatenschap is dan ook indrukwekkend. Hij scoorde nationale en internationale bekendheid met het opzetten van het succesvolle ‘Keur der wetenschap’ ofwel ‘Cream of Science’. Een initiatief om aan de Open Access repositories van de universiteiten een kwaliteitsimpuls te geven door aan 200 vooraanstaande wetenschappers te vragen of zij al hun wetenschappelijke publicaties daarvoor wilden beschikbaar stellen. Hij ontving daarvoor in 2008 de SPARC Europe Award for Outstanding Achievements in Scholarly Communications. Hierna richtte Leo zijn aandacht op het wetenschappelijke uitgeefproces zelf en richtte Quality Open Access Market op. QOAM is bedoeld om de kwaliteit van een tijdschrift te laten bepalen door de auteurs zelf en daarmee de dominantie van de ’journal impact factor’ van een commerciële partij te doorbreken. Onvermoeibaar als altijd, publiceerde hij samen met collega’s van het CWTS in mei van dit jaar nog een pleidooi om een publicatie-infrastructuur te bouwen buiten de uitgevers om.

Ik ontmoette Leo in 1993 toen ik directeur werd van het toenmalige Nederlands Bureau voor Onderzoeksinformatie (NBOI) en hij als bibliothecaris van de TU Delft in het bestuur zat. Tijdens zijn periode bij SURF heb ik verscheidene opdrachten gedaan, o.a. een grote inventarisatie van repositories in Europa voor het Europese DRIVER project. Toen Leo Open Access consultant werd hebben we een aantal opdrachten samen gedaan en schreven rapporten met titels als ‘Surfboard for Riding the Wave’; ‘Authority files breaking out of the library silo’ en ‘Quality of Research Data, an operational approach’. Tijdens een opdracht bij de bouw van de nieuwe bibliotheek in Birmingham waren we onverwacht snel klaar met de ochtendsessie en hadden nog vele uren voordat ons vliegtuig vertrok. Bij de lunch gingen we helemaal op in ons gesprek met als gevolg dat we het vliegtuig hebben gemist!

De Open Access beweging zal Leo’s ideeën en initiatieven node missen. Hij liep in zijn denken soms wel 20 jaar voor (onder andere met een idee om publiceren en peer review te splitsen – toen heel raar, nu een geaccepteerd idee) en heeft Open Access enorm verder weten te brengen. Hij laat een enorm gat achter, ook in mijn leven – ik zal onze discussies enorm missen!

Classé sous :Blog

APCs in the (French) wild

7 janvier 2023 by Maurits van der Graaf

A data shopping spree

My French colleagues Antoine Blanchard and Diane Thierry (from Datactivist) and me had the opportunity to do a study on APC costs for the French Ministry of Higher Education and Research (MESR).

Our proposal – to build a dataset with articles by French authors from the ground up and use that for a calculation of the APC costs – was accepted. We had a plan to do this, but – as is the case with many plans – we had to adjust it many times to circumvent unexpected obstacles.

It became a data shopping spree. We started with data from the French Open Science Barometer (BSO). They delivered data of all journal articles with a French author for the year 2013-2020. This we put in our shopping cart (my colleague Diane did all the shopping cart work with R) and started shopping around for more relevant data.

Who are the corresponding authors? We shopped these data from the Web of Science. Which articles were Open Access published in Gold or Hybrid journals? We shopped these data from OpenAlex. Couperin gave us a dataset with journal titles they had contracts with and with DOAJ and QOAM data we identified hybrid, Gold and Diamond journal titles. BSO already had made the connection with OPEN APC data for the prices. I have to admit that sometimes our shopping efforts failed: we had originally misunderstood the exact data set-up of some datasets so that incorporation was not possible.

However, in the end we were able to reach our goal – a dataset with trustworthy data of articles by French authors from 2012 to 2020. This made a retrospective analysis possible and based upon that Antoine and Diane built a model with R for a prospective analysis.

Our whole data shopping spree and the analyses made it a super interesting study, while – I think – the results have interesting implications for the future. I show below the main results.

You see in the picture that – if all trends as seen in 2012 to 2020 continue unchanged – the French institutions will pay around €50 million in 2030 on APCs in the wild (the red line). We also made – with the help of Couperin – an estimate of the subscription expenditures in that year (the grey line). Finally we calculated the cost in a fully Open Acces world, which we defined as 90% APC-paid OA and 10% Diamond OA.

I found personally very interesting that the hybrid situation (subscriptions and APCs in the wild) would cost around 150 million euro in 2030, while the full OA situation would take around 170 million of APC payments. Not much of a difference if you take into account all the margins of error of these calculations.

Let me finish with a warning: predicting the future is always a tricky business, but with using a lot of data and some modelling, we noticed at presentations that some people think these predictions are absolutely sure to happen. But in reality, these predictions are based on the 2013-2020 data and are nothing more (or less) that extending the trendlines of that period, albeit with a very complicated statistical model.

For more information, see the poster or the report

Classé sous :Non classifié(e)

APCs in the (French) wild

7 janvier 2023 by Maurits van der Graaf

A shopping spree for data

My French colleagues Antoine Blanchard and Diane Thierry (from Datactivist) and me had the opportunity to do a study on APC costs for the French Ministry of Higher Education and Research (MESR).

Our proposal – to build a dataset with articles by French authors from the ground up and use that for a calculation of the APC costs – was accepted. We had a plan to do this, but – as is the case with many plans – we had to adjust it many times to circumvent unexpected obstacles.

It became a shopping spree for data. We started with data from the French Open Science Barometer (BSO). They delivered data of all journal articles with a French author for the year 2013-2020. This we put in our shopping cart (my colleague Diane did all the shopping cart work with R) and started shopping around for more relevant data.

Who are the corresponding authors? We shopped these data from the Web of Science. Which articles were Open Access published in Gold or Hybrid journals? We shopped these data from OpenAlex. Couperin gave us a dataset with journal titles they had contracts with and with DOAJ and QOAM data we identified hybrid, Gold and Diamond journal titles. BSO already had made the connection with OPEN APC data for the prices. I have to admit that sometimes our shopping efforts failed: we had originally misunderstood the exact data set-up of some datasets so that incorporation was not possible.

However, in the end we were able to reach our goal – a dataset with trustworthy data of articles by French authors from 2012 to 2020. This made a retrospective analysis possible and based upon that Antoine and Diane built a model with R for a prospective analysis.

Our whole data shopping spree and the analyses made it a super interesting study, while – I think – the results have interesting implications for the future. I show below the main results.

You see in the picture that – if all trends as seen in 2012 to 2020 continue unchanged – the French institutions will pay around €50 million in 2030 on APCs in the wild (the red line). We also made – with the help of Couperin – an estimate of the subscription expenditures in that year (the grey line). Finally we calculated the cost in a fully Open Access world, which we defined as 90% APC-paid OA and 10% Diamond OA.

Personally I found it very interesting that the hybrid situation (subscriptions and APCs in the wild) would cost around 150 million euro in 2030, while the full OA situation would take around 170 million of APC payments. Not much of a difference if you take into account all the margins of error of these calculations.

Let me finish with a warning: predicting the future is always a tricky business. However, with using a lot of data and some modelling, we noticed at presentations that some people think these predictions are absolutely sure to happen. But in reality, these predictions are based on the 2013-2020 data and are nothing more (or less) that extending the trend-lines of that period, albeit with a very complicated statistical model.

For more information, see the poster or the full report

Classé sous :Blog

© 2023 Pleiade | website: webtaurus | Se connecter

  • Néerlandais
  • Anglais
  • Français