Differenze tra le versioni di "Wikimania 2023/Incontri su Intelligenza Artificiale AI"
Riga 84: | Riga 84: | ||
− | [categoria: Wikimania 2023] | + | [[categoria: Report Wikimania 2023]] |
Versione attuale delle 15:50, 5 set 2023
ChatGPT vs. WikiGPT: Challenges and Opportunities in harnessing generative AI for Wikimedia Projects | 17 agosto 2023
Pagina sul programma ufficiale
Relatori:
- Netha Hussain, utente Wikimedia
- Andrew Lih, Wikimediano in Residenza
- Galder Gonzalez, editor di Wikipedia in Lingua Basca
- Leila Zia, WMF
- Tilman Bayer, Wiki Research
- Jimbo Wales
Moderatrice: Shani Evenstein Sigalov, WMF Board of Trustees
Il panel era pensato come un giro di tavolo su argomenti legati all'intelligenza artificiale. Di seguito i più importanti emersi.
Netha Hussain: uso di AI nei progetti, allucinazioni
Lei usa midjourney per creare immagini di personaggi storici di cui non esistono foto o dipinti disponibili.
Ha provato a creare un articolo con Chat GPT: corretto per come era scritto grammaticalmente, ma 90% falso nei contenuti. Chat GPT può aiutare per ricerche più piccole all'interno dei progetti.
Andrew Lih: allucinazioni vs aiuto ai nuovi editor
Concorda con il rischio evidente di allucinazioni di Chat GPT, che avvengono quando sulla base dei testi processati vengono restituiti testi formalmente corretti, ma contenutisticamente errati.
Chat GPT tuttavia può essere utile per correggere bozze, aiutare i nuovi editor a imparare a contribuire su Wikipedia, creare quick statement per Wikidata o piccole sequenze di codice per chi non sa programmare.
Galder Gonzalez: il problema linguistico
Chat GPT può aiutare nel training, ma anche nelle traduzioni, andando a compensare un problema linguistico (soglia di accesso) con cui tutte le piattaforme di internet, Wikipedia compresa, hanno sempre dovuto fare i conti.
Leila Zia: informazioni su Wikipedia e Chat GPT, Wikidata non utilizzato
Wikimedia Foundation ha sviluppato un plug in di Wikipedia per Chat GPT, che aiuta il sistema a focalizzarsi su Wikipedia.
Applicazioni utili dell'intelligenza artificiale:
- riassunto di discussioni, policy e altri documenti molto estesi su Wikipedia
- riconoscimento dei vandalismi
Al momento Large Language Models non usano Wikidata, mentre usano Wikipedia e molto poco Wikisource. Una via di sviluppo sarebbe quella di integrare i linked open data su Chat GPT.
Wikimedia Foundation ha sviluppato LiftWing per aiutare la comunità dei volontari a lavorare con i modelli di machine learning.
Importante anche il concetto di Model Card: un documento che specifica la fonte dei dati e come sono stati elaborati.
Wikisource non è ancora valorizzato a sufficienza online per colmare i gap di conoscenza legati alla lingua.
Netha Hussain: misinformation e disinformation
Con l'intelligenza artificiale questi fenomeni saranno sempre più difficili da riconoscere, ma è anche l'intelligenza artificiale che può fornire più tools per riconoscerli e alleggerire il lavoro dei volontari.
Jimbo Wales: etica
Come stiamo già facendo, bisogna insistere sull'aspetto etico della tecnologia, evitare le allucinazioni, sottolineare l'importanza delle fonti e l'uso responsabile degli strumenti.
Shani Evenstein Sigalov: l'accesso alla conoscenza deve rimanere libero
Si pone anche il problema dell'accesso alla conoscenza, non essendo le piattaforme di AI veramente aperte. L'accesso alla conoscenza deve rimanere libero, come diritto umano di base.
Leila Zia: AI Human Rights checklist
WMF sta sviluppando una checklist su diritti umani e intelligenza artificiale, per elencare gli aspetti tecnici su cui mantenere alta l'attenzione. Il movimento deve comunicare attivamente per influenzare altri attori sul tema dei diritti umani applicati anche all'intelligenza artificiale
Shani Evenstein Sigalov: disinformazione e opinione del movimento su AI
Rispondendo a una domanda del pubblico, ricorda che le allucinazioni di Chat GPT dipendono e dipenderanno da tre fattori principali, su cui c'è ancora molto da fare: disinformation, misinformation, missing information. A questo si unisce il fatto che i bias presenti su Wikipedia possono essere perpetuati dai sistemi di intelligenza artificiale.
Rispondendo a un'altra domanda riconosce che non c'è consenso sull'uso di AI all'interno di Wikipedia, ma siamo all'inizio del dibattito. Le bot policy potrebbero essere un punto di partenza.
Status of the Machine Learning on the Wikimedia Projects | 17 agosto
Santhosh Thottingal ha fatto il punto sugli strumenti esistenti su Wikipedia, come il traduttore, ORES, i task strutturati per i nuovi arrivati.
Better Sharing in a World with AI: Creative Commons Looks Ahead | 18 agosto
Intervengono:
- Catherine Stihler, Creative Commons
- Kat Walsh, Creative Commons
La parte interessante dell'evento era quella tenuta in sala da Kat Walsh.
L'approccio che suggerisce è che l'AI non è un problema di copyright: i contenuti prodotti da una macchina, non essendo prodotti dall'uomo, non rientrano sotto la protezione del copyright, ma anzi possono entrare a far parte del common. Gestire la questione dell'AI secondo logiche di copyright creerebbe più problemi che soluzioni.