
Le intelligenze artificiali generative non sono infallibili. Questo è, probabilmente, lo scoglio più grosso da superare se vogliamo immaginare di usarle come assistenti. Si tratta di un cambio di paradigma importante rispetto al modo in cui tendiamo a pensare alla tecnologia più avanzata e a come ce l’ha raccontata la fantascienza. Questo dipende anche, in parte, dalla nostra esperienza con le tecnologie. L’esempio più semplice e meccanico che possiamo fare è questo: se uso una tastiera mi aspetto che scriva esattamente le lettere che digito. Almeno finché la tastiera non si rompe.
Allo stesso modo, se uso una calcolatrice per far di conto mi aspetto che il risultato sia sempre corretto. Ma anche questo è vero soltanto in parte: se inserisco troppe cifre rispetto alla capacità della calcolatrice ottengo un’approssimazione, cioè un risultato quasi esatto, ma con un errore.
Insomma, le macchine sbagliano, proprio come gli umani che le hanno progettate e costruite, che le usano e le fanno funzionare. L’accuratezza rispetto a compiti specifici si può misurare in percentuale. Per esempio, sappiamo che l’accuratezza delle diagnosi mediche varia, a seconda degli ambiti, tra il 70 e l’84 per cento. Significa che dal 16 al 30 per cento dei casi le diagnosi si rivelano sbagliate, a volte con esiti fatali. Può fare impressione, ma è un dato connaturato all’incertezza e alle diverse variabili che si presentano a un medico quando deve prendere decisioni.
Gli strumenti tecnologici progettati bene possono aumentare questa accuratezza, se i medici sanno usarli. Le ia generative possono aumentarla ulteriormente e accelerare alcuni processi. Ma, anche se tutto si combina nel migliore dei modi possibili, l’accuratezza non arriverà mai al 100 per cento.
Eppure facciamo una gran fatica a pensare in questi termini quando parliamo delle ia: ci stupiamo se una macchina non riesce a disegnare una mano con il numero giusto di dita. Ci stupiamo se una macchina sbaglia ad analizzare un file excel da cinquecentomila righe. Ci stupiamo se una macchina inventa di sana pianta un’affermazione o se non esegue bene un compito o se prende tempo e lavora a basso risparmio energetico, anche quando questa macchina è progettata esplicitamente per simulare alcuni comportamenti umani.
Mettere insieme le considerazioni sugli errori e sulla fallibilità delle macchine e quelle sulle decisioni da prendere ci aiuta, prima di tutto, a stabilire cosa vogliamo che sia delegato a una macchina e cosa, invece, deve essere solamente umano. Abbiamo anche bisogno di uscire dall’idea che sia tutto deterministico e che a una singola azione corrisponda una e una sola reazione. Non è così, è una semplificazione che sembra consolatoria ma, in realtà, è molto pericolosa.
Internazionale.it
