12 min read
Quella artificiale non è intelligenza, ma ci può aiutare a gestire le pandemie
Condividi questa news
WhatsappWhatsapp
2020-05-06 2020-05-06 6 Maggio 2020 - Massimiano Bucchi
12 min read
Image

CONVERSAZIONE CON LUCIANO FLORIDI

Nella situazione di crisi che stiamo vivendo, molti guardano alle tecnologie e in particolare all’intelligenza artificiale come a una risorsa preziosa anche per la ricerca e il monitoraggio delle pandemie. «L’intelligenza artificiale può fare molto, non so se per prevedere ma sicuramente gestire e mitigare crisi come quella che stiamo vivendo».

Luciano Floridi, professore di filosofia ed etica dell’informazione a Oxford, è il filosofo che più di ogni altro ha saputo cogliere la portata della rivoluzione introdotta dalle tecnologie dell’informazione e l’importanza di affiancare a questo cambiamento epocale una ricostruzione degli strumenti concettuali: “infosfera” e “onlife” sono solo alcuni dei termini da lui introdotti in questi anni. Tra i suoi libri pubblicati in italiano La quarta rivoluzione e il recente Pensare l’infosfera (Raffaello Cortina). Per Floridi l’intelligenza «artificiale» è in qualche modo «stupida» (ora capiremo perché), ma è uno strumento potente al servizio di intelligenza e decisioni umane. Anche in contesti come questo. Non una panacea per risolvere tutti i problemi, ma nemmeno il «più grande rischio per l’umanità», come profetizzava Elon Musk. «Spiace ci sia voluta una pandemia per tornare a ragionare». Ma andiamo con ordine.

Che cos’è l’intelligenza artificiale? So che tu preferisci definirla come un divorzio, più che come un matrimonio…

Sì, in effetti si capisce molto di più se si vede questa separazione tra la capacità di agire con successo per un fine, e la necessità di essere intelligente per farlo. Questa è veramente una svolta epocale. Per tutta la nostra storia, da quando siamo usciti dalle caverne, o eravamo noi o era un animale a fare qualcosa, oppure ci inventavamo che fosse la divinità del fiume…All’improvviso, ma neanche tanto, abbiamo una tecnologia che riesce a risolvere problemi anche molto complessi, come ad esempio l’ottimizzazione di alcune risorse, o la riorganizzazione dei compiti in una fabbrica, senza un milligrammo di intelligenza. Questo a me risulta miracoloso. Il termine “intelligenza artificiale” venne coniato da John McCarthy del 1955. E la sua definizione per me resta ancora la migliore: l’intelligenza artificiale è, in poche parole, qualsiasi cosa in grado di fare operazioni che, se le facesse un essere umano, sarebbero reputate intelligenti.

Quindi usare il termine “intelligenza artificiale” potrebbe essere fuorviante?

Certo, in quegli anni dovevano ‘vendere’ questa nuova idea e l’hanno venduta benissimo…L’efficacia e l’efficienza nel risolvere un problema in vista di un fine, a zero intelligenza, questa è secondo me la definizione del divorzio di cui ti parlavo. In inglese il termine agency, che è molto utile, indica la capacità di agire. Una volta che tu hai scollato agency e intelligenza, si capiscono almeno due altre cose fondamentali. Uno: perché ce l’abbiamo oggi questo scollamento, e non ce l’abbiamo avuto fino all’altro ieri. Due: quali sono i problemi che genera. Partiamo dal secondo punto. Questo divorzio, questa fissione dell’intelligenza per cui all’improvviso per agire con successo rispetto a un fine non devo avere alcuna intelligenza. L’esempio che faccio spesso è quello del mio telefonino, che sa giocare a scacchi meglio di chiunque altro. È ovvio che dentro non c’è alcuna intelligenza, è un telefonino! Semplicemente, si può giocare a scacchi a zero intelligenza se hai tutto un apparato di software, di dati, di training… ma non un essere umano. Se gioco io, per vincere devo usare l’intelligenza. Se posso banalizzare: per volare un uccello deve usare le ali, ma un aereo raggiunge risultati anche migliori in modo molto diverso. Quando Leonardo cercava di far volare l’uomo imitando gli uccelli era come se stesse cercando di sviluppare l’IA facendola diventare veramente intelligente. Quell’approccio imitativo è stato fallimentare, ma quello ingegneristico (l’importante è trovare la soluzione, non come la si raggiunge) ha avuto un successo straordinario.

Quali sono le conseguenze di questo divorzio tra capacità di agire e intelligenza?

Te ne accenno un paio. Il tema della responsabilizzazione. Qualcosa del genere, a zero intelligenza, lo renderesti responsabile di operazioni delicate, ad alto rischio, senza alcun controllo? Fermi tutti. Scherzando a volte dico: dormirei più tranquillo se fosse davvero intelligente! Non ci dormo proprio perché l’IA è stupida. L’intelligenza la puoi educare. Il computer riesce a fare molto rapidamente cose complicatissime, ma ad esempio non ha l’intelligenza di capire quando si tratta di smettere di fare quel lavoro. Immagina: se scoppia un incendio, io smetto di giocare a scacchi, perdo la partita ma salvo la vita, il computer continua a giocare.  Da questa scissione nascono anche una serie di problemi etici, politici, economici che ci toccano.

Ad esempio?

Uno di questi problemi è quello della manipolazione. Uno degli scopi per cui usiamo più spesso l’intelligenza artificiale è influenzare le decisioni degli esseri umani. Non è molto brillante, da parte nostra, mettere i vasi di coccio tra i vasi di ferro, per citare Manzoni.  È rischioso mettere questa intelligenza artificiale, che intelligenza non è, ma che può lavorare indefessamente 24 ore al giorno a risolvere problemi, accanto a una vera intelligenza che come tale è flessibile, influenzabile, malleabile, può cambiare idea. Se tu gli metti accanto un bastone dritto, la pianta cresce attorno al bastone. E questo è ciò che accade per esempio con i sistemi di raccomandazione che abbiamo online (Amazon, eBay, Apple e così via). Mettere accanto a un’intelligenza malleabile uno strumento che continua a ripeterti: se ti è piaciuto questo, ti piacerà anche quest’altro, è pericoloso, finisce per erodere l’autonomia della persona, la sua indipendenza e capacità di scelta. Immaginiamo Peppino, è nato oggi e per vent’anni gli consigliamo e sponsorizziamo viaggi, letture, ristoranti, musica, sport, diete, amicizie, percorsi educativi, moda, scelte sociali e politiche: il rischio è quando sarà adulto forse avremo distrutto la sua intelligenza umana.

Mi ricorda la legge di Gresham in economia: la moneta cattiva scaccia quella buona. Vale anche per l’intelligenza?

Proprio così: l’assenza di intelligenza finisce con l’influenzare l’intelligenza. Pessima idea. E ce lo stiamo facendo da soli. Queste sono le cose che noi non vediamo, la minaccia non è il robot che distrugge il mondo o altre scemenze, sono i tempi lunghi per cui finiamo come la famosa aragosta, bollita un poco alla volta…noi abbiamo sguinzagliato forme di esecuzione di problemi senza avere un quadro sociopolitico di controllo. I vantaggi possono essere enormi, ma i rischi sono altrettanto significativi.

Prima accennavi alla domanda: perché proprio oggi?

Pensa che gli algoritmi che usiamo erano descritti già vent’anni fa con le reti neurali artificiali, anzi risalgono addirittura agli anni Settanta. Il primo articolo scientifico, pubblicato da McCulloch e Pitts sulle reti neurali è del 1943. Il problema è che in passato non avevamo né la tecnologia, né i dati, né la potenza di computazione che abbiamo oggi. Come si ricorda spesso, c’è più capacità computazionale in un telefonino oggi che nei computer della NASA che hanno portato l’uomo sulla Luna. E soprattutto, ci sono gazillioni di dati che non avevamo. In termini di mera quantità, quasi tutti i dati mai esistiti sono stati creati dalla nostra generazione, è una cosa sconvolgente. Questo ha trasformato radicalmente l’intelligenza artificiale da una branca della logica matematica a una branca della statistica. Ti faccio un paragone semplice. In passato noi prendevamo gli ingredienti (dati), la ricetta (algoritmo) e il computer preparava la pasta carbonara (ad esempio una calcolatrice). Oggi diamo al computer gli ingredienti (dati), gli diciamo che cosa vogliamo ottenere (la pasta carbonara), e il sistema impara la ricetta. Da allora in poi il computer ti fa la carbonara. Per esempio, dopo aver esposto una rete neurale a migliaia di foto di gatti, la rete “impara” nel tempo a riconoscere qualsiasi gatto.

E come si spiega il successo di questa versione ‘stupida’ dell’intelligenza artificiale, oltre naturalmente alla sua efficienza?

Uno dei motivi è il fatto che viviamo in un mondo concepito sempre più per loro e non per noi. La quintessenza dell’intelligenza artificiale che funziona è quella che riorganizza tutto gli ambienti per far sì che le capacità più ‘stupide’ dell’intelligenza artificiale e della robotica abbiano successo. Se tu guardi i video dei magazzini di Amazon, capisci che quell’ambiente è costruito per loro. Se noi riorganizziamo il mondo affinché il “divorzio” tra intelligenza e “agency” abbia successo, potremmo fare molto bene, ma rischiamo anche di fare una grande sciocchezza. Un esempio calzante è quello delle auto senza guidatore: non esistono, non funzionano. O meglio, forse possono funzionare in California, col sole e la strada sempre dritta, ma non in contesti complessi come il traffico delle nostre città.

Quindi per far funzionare l’auto senza guidatore devi creare ad esempio corsie dedicate…

Esattamente. Adatteremo il nostro ambiente a quelle auto, non viceversa. Se cambi le autostrade, i semafori, metti dei sensori, e così via allora è chiaro che le auto senza guidatore possono funzionare. Ma questo ovviamente mette fuori gioco auto tradizionali e guidatori umani, forse perfino i pedoni. A questo punto avremo disegnato una città a misura di auto autonome. Lo vediamo già nella vita ordinaria: quante volte ci sentiamo dire che le cose vanno fatte in un certo modo – per esempio riempire un modulo online - perché altrimenti il sistema non funziona? Non ha molto senso.  Questo adattare il mondo alla tecnologia e non la tecnologia a noi stessi è una delle grandi sfide che dovremo affrontare.

In questa chiave vedi la possibilità che l'intelligenza artificiale, se ripensata adeguatamente, possa contribuire ad affrontare o perfino a prevedere future pandemie?

Credo che l’IA possa fare molto, non so se per prevedere ma sicuramente per gestire e mitigare crisi come una nuova ondata di questa pandemia, o una pandemia futura, o catastrofi ambientali in arrivo, tutti eventi che sappiamo essere probabili.  Persone come Elon Musk hanno sostenuto che l’IA era "humanity's biggest risk”. Da anni sostegno che si tratta di commenti insensati. Mi dispiace che ci sia voluta una pandemia per riprendere a ragionare. Ma non dovremmo pensare che l’IA diventi “humanity’s biggest saviour”. L'utilità dell’IA non sarà quella di una panacea, ma di uno strumento potente — al servizio dell’intelligenza, della ricerca, e delle decisioni umane — per gestire efficacemente e in modo rapido enormi quantità di dati e processi complicati in scenari sempre più complessi (in cui le implicazioni si moltiplicano e influenzano a vicenda).

Come vedi queste sfide e più in generale la governance dell’intelligenza artificiale dal punto di vista della politica, tenendo conto che abbiamo a che fare con una serie di monopoli nel campo dell’economia digitale?

Questo è un tema importantissimo. Un primo aspetto è che questi monopoli non dovrebbero essere tali: serve più competizione e più antitrust. Questo la politica lo può fare, l’abbiamo fatto in passato con l’elettricità, per esempio.

Chi lo può fare? Gli stati nazionali? L’Europa?

Credo che l’Europa abbia le spalle abbastanza larghe per farlo. Altrimenti, se la regolamentazione è diversa da stato a stato, frammentata è chiaro che non si va da nessuna parte perché la competizione non sarà tra le aziende per fare meglio, ma tra gli stati per agevolarle di più. L’autoregolamentazione è utile ma non basta. Ad esempio, se la multa per un certo contenuto non arrivasse solo a Facebook ma all’investitore pubblicitario, le cose cambierebbero. Questi e altri temi non possono essere affrontati a livello nazionale. Prendi anche la questione del riconoscimento facciale: può avere senso per tutelare la sicurezza negli aeroporti, ma non a scuola, dove pure alcuni Paesi lo stanno già usando. È chiaro però che per affrontare bene questi temi ci vorrebbe un’Europa con la E maiuscola…In Europa alcune cose importanti sono state fatte, il GDPR ad esempio è stato sicuramente disegnato molto bene. Un altro successo in passato è stato ottenuto con Microsoft, il cui atteggiamento è cambiato radicalmente dopo le sanzioni europee.

Di fronte a questo tu come filosofo vedi la necessità di una rivoluzione, o come scrivi, di un “reboot”?

Proprio così. Non possiamo affrontare queste sfide ‘a mani nude’. O peggio ancora, con un’attrezzatura concettuale novecentesca. Negli anni Novanta noi non abbiamo regolamentato internet ragionando come si era ragionato per tutto il Novecento: è una rete di comunicazione (non è vero, sappiamo che è un ambiente o ecosistema dove passiamo sempre più tempo), è un mercato che si deve sviluppare come quello di luce o gas, lo regolamenteremo quando si sarà sviluppato. Ma internet non era un’utility e come dicevo non era una rete di comunicazione: era un ambiente. Noi non viviamo sulla televisione, mentre invece viviamo su internet, come dimostra questa nostra conversazione. Per questo c’è bisogno della filosofia, e c’è bisogno di una filosofia che torni a occuparsi del mondo, anziché di sé stessa come è avvenuto negli ultimi decenni. Per questo nel libro parlo della filosofia come “design concettuale”. La filosofia, quella buona, può essere di grandissimo aiuto in per affrontare al meglio le sfide del digitale e coglierne le grandi opportunità. Ma per far questo, si deve occupare dei problemi filosofici che il digitale solleva, non dei problemi dei filosofi, che non interessano a nessuno. Abbiamo davanti una straordinaria opportunità da sfruttare: quella di capire il presente per disegnare il futuro. Non dobbiamo farcela sfuggire.

SCHEDA

Massimiano Bucchi è professore ordinario di Scienza, Tecnologia e Società all’Università di Trento ed è stato visiting professor in numerose istituzioni accademiche in Asia, Europa e Nord America. Ha pubblicato una decina di libri (pubblicati in oltre venti Paesi). Tra i più recenti Come vincere un Nobel. L’immagine pubblica della scienza e il suo premio più famoso (Einaudi, 2017, in uscita negli USA per MIT Press) e Sbagliare da professionisti (Rizzoli, 2018). I suoi commenti sono stati pubblicati sui principali quotidiani italiani (Il Corriere della Sera, Repubblica, La Stampa, Sole 24 Ore). Dal 2016 collabora con la trasmissione televisiva Superquark.

www.massimianobucchi.it
Twitter: @MassiBucchi

Condividi questa news
WhatsappWhatsapp