Microgrant/2022/Premi per due concorsi su Wikidata/Relazione
< Microgrant | 2022 | Premi per due concorsi su Wikidata
Jump to navigation
Jump to search
Versione del 5 ago 2022 alle 14:32 di Dario Crespi (Discussione | contributi)
Considerato che è stato concesso da Wikimedia Italia un pagamento di 300 € (anziché di 200 € come proposto), sono stati organizzati tre concorsi mensili, raccolti sotto d:Wikidata:Gruppo Wikidata per Musei, Archivi e Biblioteche/Concorso:
con le previste Gift Card Feltrinelli di 20 € ciascuna per i primi cinque classificati di ciascun concorso.
Dati
I primi classificati dei vari concorsi, e quindi beneficiari dei premi, sono stati i seguenti utenti (in tabella è indicata la posizione raggiunta):
Utente | Aprile | Maggio | Giugno |
---|---|---|---|
Alexmar983 | 3 | 3 | |
Bargioni | 4 | 4 | 5 |
Divudi85 | 2 | 5 | |
Horcrux | 1 | 1 | 1 |
Ilaria Zammarrelli | 3 | 2 | 2 |
Jahl de Vautban | 4 | ||
Luca.favorido | 5 |
Tutti i premi sono stati accettati e quindi consegnati, per una spesa totale di 300 €, pari al finanziamento concesso.
I concorsi hanno raggiunto i seguenti obiettivi (sommando i risultati dei singoli utenti partecipanti, organizzatore incluso):
Obiettivo | Aprile | Maggio | Giugno | Totale |
---|---|---|---|---|
modifiche a elementi di Wikidata | 649791 | 1250564 | 869813 | 2770168 |
di cui modifiche effettuate con QuickStatements od OpenRefine | 543739 | 1179231 | 773217 | 2496187 |
occupazioni (P106) aggiunte a elementi di Wikidata | 5671 | 3557 | 6293 | 15521 |
riferimenti aggiunti a elementi di Wikidata | 313714 | 338780 | 35363 | 687857 |
numero di utenti partecipanti (esclusi quelli con 0 modifiche) | 17 | 9 | 8 | 34 (19 unici) |
Commento ai risultati
- i risultati in termini di modifiche totali, di occupazioni (P106) e di riferimenti aggiunti ad elementi di Wikidata è nettamente superiore rispetto alle aspettative; difficilmente mi sarei atteso più di 200000 modifiche per ciascun concorso, risultato nettamente superato con oltre 2,7 milioni di modifiche totali (di cui 273981 senza l'uso di QuickStatements e OpenRefine)
- i risultati in termini di utenti, sia per i singoli concorsi sia in totale, è inferiore alle mie aspettative, che si attestavano attorno a 15-20 utenti per concorso; soprattutto, solo un utente recentemente registrato ha preso parte ai concorsi; per il futuro, sarà necessario pensare in modo diverso iniziative simili (soprattutto, forse non soltanto, in termini di promozione) per attirare nuovi utenti
- come noto, in questi concorsi l'Outreach Dashboard è stata usata solo per raccogliere le iscrizioni degli utenti, mentre poi i dati sulla loro contribuzione sono stati manualmente ricavati da WikiScan e da Wikidata Navel Gazer; questo metodo non consentiva di restringere il monitoraggio alle modifiche effettuate dagli utenti solo su alcuni elementi o per tipologia o in altro modo, ma di fatto era necessario considerare l'intera contribuzione degli utenti; ciò aveva conseguenze rilevanti:
- per indirizzare gli utenti verso un determinato tipo di contribuzione (aggiunta di occupazioni e di riferimenti), è stato necessario dare più valore nei punteggi a tali modifiche, e sono state fornite agli utenti numerose query per permettere loro di individuare facilmente elementi bisognosi di tali contributi; tuttavia, gli utenti erano liberi di contribuire anche in altro modo e quindi di utilizzare in modo ridotto tali query
- di conseguenza, è effettivamente difficile (come del resto si pensava già in partenza) distinguere le modifiche che gli utenti sono stati invogliati a effettuare a causa dell'esistenza del concorso dalle modifiche che invece gli utenti avrebbero compiuto comunque perché si stavano occupando di un determinato settore di Wikidata indipendentemente dal concorso
Possibili migliorie per futuri concorsi
- è da valutare molto attentamente l'uso, per futuri concorsi simili, della funzionalità dell'Outreach Dashboard che permette di usare una "query" di PetScan per restringere il numero di elementi monitorati (meta:Programs & Events Dashboard/Using the Dashboard#Tracking Wikidata items in an Article Scoped Program using Petscan); in tal modo solo le modifiche effettuate dagli utenti su un certo insieme di elementi vengono tenute in considerazione ed è quindi più facile sia indirizzare il lavoro degli utenti su un determinato settore sia distinguere le modifiche effettuate dagli utenti in vista del concorso dalle loro aree di lavoro ordinarie (a meno che, ovviamente, le loro aree di lavoro ordinarie non coincidano col tema scelto per il concorso); questa funzionalità è stata usata ad esempio per d:Wikidata:Events/International Museum Day 2022, che ha calcolato i punteggi usando il numero di byte aggiunti dagli utenti negli elementi considerati dalle query
- è inoltre sperabile che un concorso finalizzato a uno scopo preciso possa attirare un certo numero di utenti, i quali potranno essere fiduciosi nel fatto che, operando sulle query fornite, otterranno buoni risultati (il che è meno garantito in un concorso che tiene conto dell'intera attività degli utenti)
- si può sperimentare inoltre l'effetto di un ampliamento delle posizioni premiate, anche in modo simbolico (es. 5 € agli utenti dal sesto al quindicesimo posto che abbiano raggiunto una certa soglia di modifiche, abbastanza alta ma raggiungibile senza uno sforzo improponibile)
- si può inoltre corredare il concorso di uno o due incontri introduttivi che mostrino agli utenti come effettivamente effettuare modifiche valide per il concorso, con particolare attenzione ai gadget che facilitano il lavoro degli utenti; è possibile che la presenza di tali incontri introduttivi possa essere un fattore rilevante nell'attirare almeno un piccolo numero di nuovi utenti