Una nuova ricerca invita i ricercatori alla trasparenza su codici e modelli utilizzati nello sviluppo dell’intelligenza artificiale
Un gruppo di scienziati vuole spingere i ricercatori e le riviste scientifiche a rendere più elevati gli standard di trasparenza e riproducibilitĆ dei modelli utilizzati per lo sviluppo dell’intelligenza artificiale. La condivisione del codice, dei modelli e degli ambienti di calcolo può aiutare gli standard della ricerca scientifica.
Intelligenza artificiale: abbiamo un problema
Un articolo pubblicato nel gennaio 2020, affermava che un sistema di intelligenza artificiale potrebbe superare i radiologi umani nello screening del cancro al seno. Lo studio ha fatto scalpore nella comunitĆ scientifica ed ĆØ stato ripreso anche da molti giornali. Un esame più approfondito ha però sollevato alcune preoccupazioni. Lo studio mancava di una descrizione sufficiente dei metodi utilizzati, compreso il codice e i calcoli usati. La mancanza di trasparenza sui dati ha impedito ad altri ricercatori di capire esattamente come funziona il modello e come potrebbe essere applicato nelle proprie istituzioni. In teoria, hanno detto in molti, lo studio era anche ben fatto. Però l’impossibilitĆ di duplicarlo e di apprendere come ĆØ stato sviluppato ne rende quasi inutile la valenza scientifica. Secondo il dottor Haibe-Kains, docente di biofisica presso il Vector Institute for Artificial Intelligence, questo ĆØ solo un esempio di un modello problematico nella ricerca computazionale.
L’invito alla trasparenza
In un articolo pubblicato su Nature, scienziati dell’UniversitĆ di Toronto, della Stanford University, della Johns Hopkins, della Harvard School of Public Health e del MIT invitano riviste scientifiche e ricercatori computazionali a standard più elevati di trasparenza. Il crescente sviluppo dei modelli di intelligenza artificiale sta aumentando le perplessitĆ fra molti autori. Se da un lato infatti dimostra un crescente sviluppo e interesse nel settore, dall’altro non deve sfuggire alle regole scientifiche. Le riviste, vulnerabili al fascino dell’intelligenza artificiale, potrebbero abbassare gli standard e accettare articoli che non includono tutto il materiale necessario per rendere lo studio riproducibile, spesso in contraddizione con le loro stesse linee guida. Nell’articolo gli autori offrono numerosi framework e piattaforme che consentono una diffusione sicura ed efficace dei dati. Per sostenere i tre pilastri della scienza aperta, concludono i ricercatori, servono: condivisione dei dati, condivisione del codice e condivisione della affidabilitĆ dei modelli.
I rischi della non trasparenza
La mancanza di trasparenza non ĆØ un problema solo della ricerca sull’intelligenza artificiale. I ricercatori di tutti i campi sono pressati dalla regola del “publish or perish“. Il dover pubblicare molti articoli velocemente rischia di ridurne la qualitĆ diminuendo i dettagli. Non riuscire a riprodurre gli esperimenti ĆØ però un problema. I ricercatori non riescono a capire come funzionano i modelli per replicarli in modo ponderato. Questo nel lungo periodo rende più difficile la ricerca, impedendo o rallentando anche eventuali ricadute cliniche. In alcuni casi, potrebbe portare a sperimentazioni cliniche ingiustificate, perchĆ© quello che funziona su un gruppo di pazienti o in un istituto potrebbe non essere appropriato per un altro.
Seguiteci nella nostra sezione scienze per altre news!
Lascia un commento