5 min read
Human & Machine: etica, controllo e dialoghi di pace
Condividi questa news
WhatsappWhatsapp
2020-11-24 2020-11-24 24 Novembre 2020 - Gabriele Crepaz
5 min read
Image

Siamo arrivati alla fine del nostro viaggio dedicato all’intelligenza artificiale. Gli ultimi due scenari che analizziamo con il prof. Dominik Matt, direttore di Fraunhofer Italia e docente alla Libera Università di Bolzano, e il ricercatore di IA all’Università di Bolzano e membro dell’associazione internazionale Association for Computing Machinery, prof. Diego Calvanese, riguardano l’etica e il controllo. Due temi ambiziosi che accendono il dibattito tra gli esperti di tutto il mondo.

Scenario n. 4 – L’etica: come insegnare a una macchina cos’è un buon algoritmo?

Il potenziale di abuso è molto alto. Più alto rispetto ad altri sviluppi tecnologici, teme Calvanese. Sempre più spesso sentiamo cosa può andare storto: metodi di reclutamento che riflettono il pregiudizio sui dati utilizzati, il riconoscimento facciale che porterà alla scomparsa di qualsiasi anonimato in Cina entro il 2030, chatbot che manipolano i meccanismi decisionali politici. La peggiore delle ipotesi: «Sistemi autonomi che diventano armi autonome», dice il ricercatore. Dove si trova il limite? O come si insegna l’etica alle macchine? Esistono degli approcci che provengono dall’informatica stessa. Nell’approccio simbolico dell’intelligenza artificiale, i ricercatori stanno lavorando su regole etiche che potrebbero essere incorporate in sistemi, robot, software di guida autonoma. C’è però un problema: «Si dovrebbe definire esattamente cosa significa etica. Bisogna formalizzarlo», spiega Calvanese. Per adesso è impossibile. In un mondo dove nemmeno gli uomini sono d’accordo su ciò che è giusto e ciò che è sbagliato. 

Nel febbraio 2020, la Commissione europea ha presentato la sua strategia per i dati con incluso il libro bianco per un uso sicuro della IA: l’Europa vuole diventare il pioniere di un’intelligenza artificiale affidabile. Allo stesso tempo, il Vaticano ha annunciato una carta etica per l’intelligenza artificiale che pone al centro l’uomo. «Ottimi principi ma troppo soft e generali», afferma Calvanese. Le macchine hanno bisogno di indicazioni chiare: «Cosa si fa concretamente per mettere in pratica questi principi? Questo non è chiaro». Matt, il direttore di Fraunhofer Italia, punta quindi sul potere della ragione. «Io sono un ottimista radicale. L’uomo si è sempre posto dei limiti. Credo nella sana volontà delle persone di sopravvivere». Ultimamente gli vengono spesso in mente Platone, Cicerone & Co. I filosofi antichi hanno sviluppato i modelli di società democratica in cui viviamo oggi. «Dobbiamo continuare a sviluppare questi modelli», dice Matt. E si emoziona quando dice che il latino e la filosofia, due materie scolastiche che molti vogliono abolire, dovrebbero essere valorizzate. Inoltre, è a favore dell’introduzione di lezioni di etica in ingegneria: «La dialettica, la gioia di pensare, queste sono le cose che dovremmo promuovere». Chi smette di dialogare rinuncia a ciò che è umanamente possibile. Senza pensare.

Scenario n. 5 – Il controllo: come implementare l’IA in maniera efficace mantenendo comunque il controllo

Chi ha il controllo? L’uomo o la macchina? O entrambi? Questa domanda non ha ancora una risposta. Calvanese, che vive in prima persona questo sviluppo, è allarmato. Il potere delle grandi corporazioni, la ricchezza di pochi, la minaccia della disoccupazione e la spada di Damocle della super-intelligenza: «L’aspetto negativo è che lasciamo correre e non facciamo nulla. Né i politici né gli scienziati. Forse è anche troppo presto per fare qualcosa perché è difficile prevedere come si evolverà in futuro. Ma dobbiamo stare molto attenti, prima o poi saremo al limite e poi potrebbe essere troppo tardi».

È tutta una questione di misura. Stuart Russell, ricercatore di IA a Berkeley, in un’intervista nel mese di gennaio 2020 con James Manyika del McKinsey Global Institute, ha avanzato una proposta. «Dobbiamo ridefinire l’intelligenza artificiale», dice Russell. Da quando esiste l’IA, abbiamo posto un obiettivo e la smart machine cerca di raggiungerlo. «Questo è un pensiero troppo umano e non funziona realmente». A riprova di ciò, ha citato il destino di Mida, un leggendario re della mitologia, il quale volle che tutto ciò che toccava si trasformasse in oro e alla fine questa brama di ricchezza lo portò alla morte. Russell prosegue: «La macchina non è in grado di misurare la grandezza di un obiettivo perché non ne siamo in grado neppure noi».

Russell avverte che se continuiamo a dare all’intelligenza artificiale degli obiettivi fissi, perderemo il controllo. La soluzione: «L’intelligenza artificiale che non sia semplicemente intelligente ma che sia anche utile». Russell ha in mente un sistema che è formato da due partner, Human e Machine, e nel quale le persone stanno meglio con le macchine che senza di esse. Per i visionari questa non è una stregoneria, c’è bisogno solo di scrivere nuovi algoritmi: «Non più algoritmi che risolvono un problema, ma algoritmi che trovino le soluzioni ottimali per quel problema». Una differenza sottile ma essenziale. La macchina suggerisce delle varianti di soluzione, l’essere umano decide. Una perfetta divisione del lavoro con un chiaro beneficio. Si tratta di intelligenza collaborativa. L’approccio di Russell placherebbe molti timori. Lascia alle macchine la "dignità" e rende giustizia al ruolo dell'uomo. Perché, come dice Matt: «La macchina fornisce i dati e noi conosciamo il mondo». Se poi le macchine imparano e accumulano sapere dalle esperienze e preferenze dei loro partner umani, tanto meglio. Insieme abbiamo grandi compiti da risolvere. Al primo posto: la crisi climatica. Attualmente messa in ombra dal coronavirus. Abbiamo bisogno di una tregua. O meglio, di dialoghi di pace.

Condividi questa news
WhatsappWhatsapp