Watson for Oncology, in passato casi di suggerimenti terapeutici sbagliati

Watson for Oncology, in passato casi di suggerimenti terapeutici sbagliati

Documenti interni di IBM svelano insoddisfazioni di medici per via di suggerimenti sbagliati e rischiosi. Ma si evidenza anche un problema di metodo nella fase di allenamento dell'intelligenza artificiale

di pubblicata il , alle 09:31 nel canale Scienza e tecnologia
IBM
 

Il sito web Stat News è entrato in possesso di alcuni documenti interni ad IBM che lasciano sollevare qualche perplessità sull'efficacia del supercomputer Watson nel supporto alle cure oncologiche, con una serie di esempi di suggerimenti che vengono definiti "sbagliati e rischiosi".

I documenti erano inclusi in due presentazioni condotte nei mesi di giugno e luglio 2017 da Andrew Norden, allora Deputy Health Chief di IBM, per illustrare agli executive della società le critiche mosse da svariati medici di diverse cliniche che hanno riscontrato suggerimenti terapeutici del tutto fuori luogo in alcuni casi.

Un esempio contenuto nei documenti è il caso di un 65 con diagnosi di cancro ai polmoni, assieme ad una grave emorragia. Watson avrebbe suggerito, oltre alla chemioterapia, anche la somministrazione di un farmaco tra i cui effetti collaterali vi possono essere episodi di emorragia, e quindi non adatto per il paziente.

All'interno dei documenti si evidenzia però un problema di metodo: quando nel 2012 i medici del Memorial Sloan Kettering Cancer Center hanno collaborato con IBM alle operazioni di allenamento dell'intelligenza artificiale, hanno somministrato a Watson non dati reali dei pazienti in cura, ma solamente informazioni teoriche, o dati "sintetici" dei casi reali. Ciò significa che quando altri ospedali hanno usato Watson, potrebbero aver ricevuto suggerimenti di trattamento elaborati sulla base delle preferenze dei medici dell'MSK, invece di un'interpretazione dell'Intelligenza Artificiale dei dati reali di un paziente.

Norden non ha rilasciato commenti poiché non lavora più in IBM: ha lasciato la sua posizione qualche settimana dopo le presentazioni cui abbiamo fatto cenno poco sopra. Un portavoce di IBM ha dichiarato che il programma Watson for Oncology è allenato per aiutare gli oncologi a trattare 13 tipi di cancro e viene usato in 230 ospedali nel mondo, supportando le cure di oltre 84 mila pazienti.

Caitlin Hool, portavoce del Memorial Sloan Kettering, ha dichiarato che i punti critici contenuti nei documenti interni riflettono la "robusta natura del processo di sviluppo" di un software come quello di Watson for Oncology, precisando inoltre che i suggerimenti errati sono solamente degli esempi e non sono stati chiaramente utilizzati nelle terapie effettive. "Watson for Oncology offre opzioni di trattamento sicure, ma le decisioni richiedono in ultima istanza l'intervento e il giudizio clinico di un medico. Nessuna tecnologia può sostituire un dottore e la sua conoscenza del singolo paziente" ha sottolineato Hool.

Episodi di questo tipo sono particolarmente rivelatori di quanto importante sia, nella fase di allenamento di un'intelligenza artificiale, somministrare dati di qualità per evitare inferenze che possano condurre a decisioni o intuizioni completamente fuori strada.

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
giovanni6928 Luglio 2018, 21:57 #1
Sì, vabbè! ci hanno messo 6 anni a rendersi conto che c'è stato un problema di metodo?

E dove era lo scienziato supervisore durante inserimento dei dati teorici invece che casi reali? Nessun controllo fino al 2017 sulle modalità di lavoro dei dottori e pure degli IBM engineers che davano in pasto a Watson "small number of “synthetic” cancer cases, or hypothetical patients, rather than real patient data"?
Quel Norden sembra abbia voluto parare il ad IBM, scaricando la responsabilità sui medici/ingegneri incapaci mentre lui era Deputy Health Chief di IBM.

Dall'altra parte il portavoce dell'ospedale Hool, fa il P.R. per evitare di sputtanare i dottori e soprattutto evitare azioni legali da parte di pazienti potenzialmente danneggiati precisando ( [...] che i suggerimenti errati sono solamente degli esempi e non sono stati chiaramente utilizzati nelle terapie effettive. ).

Garbage-In, Garbage-Out si diceva un tempo...

Nessuno andrà a verificare realmente se quelle decisioni sono state applicate a qualche paziente pari-pari, soltanto perchè Hool rassicura dicendo che "Watson for Oncology offre opzioni di trattamento sicure, ma le decisioni richiedono in ultima istanza l'intervento e il giudizio clinico di un medico. Nessuna tecnologia può sostituire un dottore e la sua conoscenza del singolo paziente" ?

Quindi la frase parte dalla premessa che 'Watson for Oncology offre [I][COLOR="Blue"]opzioni di trattamento sicure[/COLOR][/I]...'? -- non stiamo qui a parlare di queste cose perchè appunto i documenti interni di IBM dimostrano tutt'altro ovvero [COLOR="Blue"]suggerimenti sbagliati e rischiosi[/COLOR]?
e poi il PR salva la figura del medico, la sua professionalità ed indipendenza decisionale.

Tornando alla domanda iniziale: e se invece fosse stato il metodo a prevedere appositamente l'inserimento di dati sintetici all'inizio come pre-training (un po' come i dottori imparano sui libri prima di tagliare con il bisturi)? E solo adesso si è arrivati alla fase di training con dati reali? Ma nel frattempo serviva piazzare le licenze Watson in giro per il mondo, con i dottori a fare da beta tester... ed a giocare a fare i dottori AI con la salute dei pazienti.

C'è sempre il business sotto, del resto. The show must go on! E dare la colpa ad un errore di metodo è un buon modo per far finire tutto a tarallucci e vino anche se si tratta di salute.
Gundam.7530 Luglio 2018, 06:52 #2
e poi dicono male a chi consulta wikipedia per curarsi....
cignox130 Luglio 2018, 08:07 #3
Alla fine l'unico dato importante é la percentuale di pazienti curati con successo: é piú alta per chi é stato curato con l'ausilio di Watson? Si/No.

giovanni6930 Luglio 2018, 10:13 #4
Non è così semplice: ci sono anche i falsi positivi e falsi negativi. Anche in una serie casuale ci sono degli apparenti trend (testa-testa-testa-testa-testa) così come possono uscire con X probabilità anche 8 testa/croce consecutive.
E lì non è una questione di metodo corretto o sbagliato come quando si va ad istruire una AI.
Quindi per ottenere delle risposte che sia affidabili non si può prescindere dal metodo in quanto altrimenti è come usare una moneta truccata o sbilanciata. Ed a quel punto non potrai attribuire più al caso i risultati siano essi a favore che contrari (insomma la serie non risponde più ad un fenomeno stazionario), figuriamoci nei meandri del training AI.
TheDarkAngel30 Luglio 2018, 10:37 #5
Originariamente inviato da: giovanni69
Non è così semplice: ci sono anche i falsi positivi e falsi negativi. Anche in una serie casuale ci sono degli apparenti trend (testa-testa-testa-testa-testa) così come possono uscire con X probabilità anche 8 testa/croce consecutive.
E lì non è una questione di metodo corretto o sbagliato come quando si va ad istruire una AI.
Quindi per ottenere delle risposte che sia affidabili non si può prescindere dal metodo in quanto altrimenti è come usare una moneta truccata o sbilanciata. Ed a quel punto non potrai attribuire più al caso i risultati siano essi a favore che contrari (insomma la serie non risponde più ad un fenomeno stazionario), figuriamoci nei meandri del training AI.


Concordo, è un problema di consistenza
willyx7830 Luglio 2018, 17:06 #6
Originariamente inviato da: TheDarkAngel
Concordo, è un problema di consistenza

Coerenza!
Purtroppo tutti i libri italiani traducono consistent con consistenza e quindi milioni di studenti che sanno che tra le varie cose un software deve essere... Consistente!
In realtà la traduzione corretta e coerente, un software deve essere coerente
tracomanno30 Luglio 2018, 20:32 #7

Dubito abbia danneggiato i pazienti

Qualunque esame o algoritmo non è mai sostitutivo del giudizio medico (è così per buon senso oltre che da un punto di vista medico-legale). Per cui dubito che i medici in questione si siano fidati ciecamente delle elaborazioni di Watson. Se così fosse, il problema sarebbe l'imprudenza dei medici stessi, certamente non di Watson. Niente in medicina ha sensibilità e specificità del 100% e questo lo sa anche il più scarso studente di medicina.
I medici lavorano di statistiche arricchite dalla propria esperienza quotidiana.. non si fermano certo alle affermazioni (di puro marketing), della IBM circa la sua IA mirabolante.
Se la IBM ha deciso di far allenare la propria IA dai medici in modo non consono, questo è un problema della sola IBM nel riuscire a creare un software valido, ma questo dubito abbia avuto alcuna implicazione per i pazienti.
Zenida01 Agosto 2018, 00:32 #8
Originariamente inviato da: willyx78
Coerenza!
Purtroppo tutti i libri italiani traducono consistent con consistenza e quindi milioni di studenti che sanno che tra le varie cose un software deve essere... Consistente!
In realtà la traduzione corretta e coerente, un software deve essere coerente


Il traduttore ha ritornato la parola sbagliata

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^