Differenze tra le versioni di "Wikimania 2023/Incontri su Intelligenza Artificiale AI"

Da Wikimedia Italia.
Jump to navigation Jump to search
 
Riga 84: Riga 84:
  
  
[categoria: Wikimania 2023]
+
[[categoria: Report Wikimania 2023]]

Versione attuale delle 15:50, 5 set 2023

ChatGPT vs. WikiGPT: Challenges and Opportunities in harnessing generative AI for Wikimedia Projects | 17 agosto 2023

Pagina sul programma ufficiale

Video

Relatori:

  • Netha Hussain, utente Wikimedia
  • Andrew Lih, Wikimediano in Residenza
  • Galder Gonzalez, editor di Wikipedia in Lingua Basca
  • Leila Zia, WMF
  • Tilman Bayer, Wiki Research
  • Jimbo Wales

Moderatrice: Shani Evenstein Sigalov, WMF Board of Trustees


Il panel era pensato come un giro di tavolo su argomenti legati all'intelligenza artificiale. Di seguito i più importanti emersi.

Netha Hussain: uso di AI nei progetti, allucinazioni

Lei usa midjourney per creare immagini di personaggi storici di cui non esistono foto o dipinti disponibili.

Ha provato a creare un articolo con Chat GPT: corretto per come era scritto grammaticalmente, ma 90% falso nei contenuti. Chat GPT può aiutare per ricerche più piccole all'interno dei progetti.

Andrew Lih: allucinazioni vs aiuto ai nuovi editor

Concorda con il rischio evidente di allucinazioni di Chat GPT, che avvengono quando sulla base dei testi processati vengono restituiti testi formalmente corretti, ma contenutisticamente errati.

Chat GPT tuttavia può essere utile per correggere bozze, aiutare i nuovi editor a imparare a contribuire su Wikipedia, creare quick statement per Wikidata o piccole sequenze di codice per chi non sa programmare.

Galder Gonzalez: il problema linguistico

Chat GPT può aiutare nel training, ma anche nelle traduzioni, andando a compensare un problema linguistico (soglia di accesso) con cui tutte le piattaforme di internet, Wikipedia compresa, hanno sempre dovuto fare i conti.

Leila Zia: informazioni su Wikipedia e Chat GPT, Wikidata non utilizzato

Wikimedia Foundation ha sviluppato un plug in di Wikipedia per Chat GPT, che aiuta il sistema a focalizzarsi su Wikipedia.

Applicazioni utili dell'intelligenza artificiale:

  • riassunto di discussioni, policy e altri documenti molto estesi su Wikipedia
  • riconoscimento dei vandalismi

Al momento Large Language Models non usano Wikidata, mentre usano Wikipedia e molto poco Wikisource. Una via di sviluppo sarebbe quella di integrare i linked open data su Chat GPT.

Wikimedia Foundation ha sviluppato LiftWing per aiutare la comunità dei volontari a lavorare con i modelli di machine learning.

Importante anche il concetto di Model Card: un documento che specifica la fonte dei dati e come sono stati elaborati.

Wikisource non è ancora valorizzato a sufficienza online per colmare i gap di conoscenza legati alla lingua.

Netha Hussain: misinformation e disinformation

Con l'intelligenza artificiale questi fenomeni saranno sempre più difficili da riconoscere, ma è anche l'intelligenza artificiale che può fornire più tools per riconoscerli e alleggerire il lavoro dei volontari.

Jimbo Wales: etica

Come stiamo già facendo, bisogna insistere sull'aspetto etico della tecnologia, evitare le allucinazioni, sottolineare l'importanza delle fonti e l'uso responsabile degli strumenti.

Shani Evenstein Sigalov: l'accesso alla conoscenza deve rimanere libero

Si pone anche il problema dell'accesso alla conoscenza, non essendo le piattaforme di AI veramente aperte. L'accesso alla conoscenza deve rimanere libero, come diritto umano di base.

Leila Zia: AI Human Rights checklist

WMF sta sviluppando una checklist su diritti umani e intelligenza artificiale, per elencare gli aspetti tecnici su cui mantenere alta l'attenzione. Il movimento deve comunicare attivamente per influenzare altri attori sul tema dei diritti umani applicati anche all'intelligenza artificiale

Shani Evenstein Sigalov: disinformazione e opinione del movimento su AI

Rispondendo a una domanda del pubblico, ricorda che le allucinazioni di Chat GPT dipendono e dipenderanno da tre fattori principali, su cui c'è ancora molto da fare: disinformation, misinformation, missing information. A questo si unisce il fatto che i bias presenti su Wikipedia possono essere perpetuati dai sistemi di intelligenza artificiale.

Rispondendo a un'altra domanda riconosce che non c'è consenso sull'uso di AI all'interno di Wikipedia, ma siamo all'inizio del dibattito. Le bot policy potrebbero essere un punto di partenza.

Status of the Machine Learning on the Wikimedia Projects | 17 agosto

Santhosh Thottingal ha fatto il punto sugli strumenti esistenti su Wikipedia, come il traduttore, ORES, i task strutturati per i nuovi arrivati.

video

slide della presentazione

Better Sharing in a World with AI: Creative Commons Looks Ahead | 18 agosto

Video

Intervengono:

  • Catherine Stihler, Creative Commons
  • Kat Walsh, Creative Commons

La parte interessante dell'evento era quella tenuta in sala da Kat Walsh.

L'approccio che suggerisce è che l'AI non è un problema di copyright: i contenuti prodotti da una macchina, non essendo prodotti dall'uomo, non rientrano sotto la protezione del copyright, ma anzi possono entrare a far parte del common. Gestire la questione dell'AI secondo logiche di copyright creerebbe più problemi che soluzioni.