Il professor Cabitza ci spiega come stiamo cedendo la libertà di scelta a piattaforme tech e governi. Qualche rimedio
Noi Sapiens stiamo cedendo sempre più potere, sempre più capacità decisionale, sempre più liberta di scelta alle macchine. O meglio: a chi è dietro quelle macchine. A chi progetta, implementa e gestisce gli algoritmi. Attenzione: non parliamo solo di Facebook, Google, Amazon e compagnia bella. A impattare nella nostra vita di tutti i giorni ci sono anche gli algoritmi di proprietà pubblica, dei governi e del loro apparato burocratico. Insomma, siamo in una morsa fra poteri privati e pubblici. Però per fortuna ci sono anche dei rimedi. A indicarceli è Federico Cabitza, professore associato presso l’Università di Milano-Bicocca dove insegna interazione uomo-macchina in diversi corsi di laurea, e dove è responsabile del laboratorio di modellazione delle incertezze, decisioni e interazioni (MUDI) e dirige il nodo locale del laboratorio nazionale CINI su Informatica e Società. Cabitza è anche autore di più di 140 pubblicazioni scientifiche, in atti di conferenze internazionali, libri e riviste scientifiche, per le quali nel 2021 è annoverato tra gli scienziati a maggior impatto citazionale nel mondo nei campi della Intelligenza Artificiale e dell’Informatica Medica. Ha anche scritto con Luciano Floridi il libro “Intelligenza Artificiale” per i tipi di Bompiani, Milano (2021).
(continua a leggere dopo la foto)
HUFFPOST
Federico Cabitza
Professore, filosofi, sociologi, politici e regolatori discutono sempre più sui rischi e benefici dell’era dell’algocrazia ovvero dell’attuale momento storico in cui gli algoritmi sembrano avere un potere strabordante sulla vita di tutti di noi. Nella sua ultima relazione annuale il Garante della Privacy, Pasquale Stanzione, ha denunciato “lo strapotere delle piattaforme Big Tech” quali Fb, Google, Amazon e via dicendo, sottolineando come solo “la protezione dei dati si stia dimostrando sempre più determinante per un governo sostenibile della tecnica, perché la democrazia non degeneri in algocrazia”. Il sociologo Derrick De Kerkhove si è spinto ancora più in là: “Oggi siamo in un sistema fondato sull’algoritmo, che elimina l’uomo. L’algoritmo fa scelte, indirizza gusti, dice come votare...”. Davvero viviamo in una dittatura degli algoritmi?
Piuttosto direi in una “dittatura attraverso gli algoritmi” ma dittatura è comunque una parola che ha una connotazione troppo forte e decisamente negativa, penso che vederla così ci possa mandare fuori strada. Certamente noi tutti, sia come individui che come collettività, dipendiamo moltissimo dagli algoritmi e dalla tecnologia digitale più in generale. E questa forte dipendenza è frutto di una scelta ben precisa: abbiamo infatti deciso di affidarci alle macchine per aumentare sicurezza, comodità, e benessere. Però, così facendo, ci siamo affidati non solo alla tecnologia in sé ma soprattutto a chi opera dietro questa tecnologia: chi la sviluppa, la vende, la sceglie per noi. Questi sono attori che perseguono un proprio fine: governo, controllo e spesso, quando si tratta di aziende private, semplicemente produrre (lecitamente) un profitto. In questo senso, sarebbe più corretto parlare di algocrazia come controllo attraverso la pervasività del digitale, piuttosto che di una vera e propria dittatura degli algoritmi.
Quando parla di aziende private fa riferimento alle piattaforme tipo Google, Apple, Facebook, Amazon, Microsoft e via dicendo?
Certamente queste grandi multinazionali sono quelle che hanno dato e stanno dando l’impronta più forte alla nostra società. Ma non mi riferisco solo a loro. Le cosiddette sette sorelle del Web sono gli obiettivi più facili da criticare ma i soggetti attivi dell’algocrazia sono tanti e diversi fra loro.
A chi si riferisce?
Anche agli Stati e alla loro macchina amministrativa e burocratica. Gli enti pubblici utilizzano molti sistemi digitali che, direttamente o indirettamente, hanno un grande impatto sulla nostra vita quotidiana, sulla nostra privacy, sui nostri diritti. Per l’Italia, guardi ad esempio i sistemi mappati dall’Osservatorio Amministrazione Automatizzata istituito da Privacy Network, come il redditometro o il sistema di indici sintetici di affidabilità fiscale, sono algoritmi anche quelli; o SARI, il sistema di identificazione biometrica usato dalle forze dell’ordine per analizzare i volti e identificare le persone. Questi software, come qualsiasi software, si basano su precise scelte progettuali relative a cosa “datificare” e quali regole implementare, e influenzano decisioni che sono prese da autorità pubbliche che hanno un impatto su tutti noi come soggetti e cittadini. In questi casi, più che speculare in maniera complottista sui cosiddetti poteri forti privati è opportuno portare alla discussione pubblica il tema della governance digitale, e quindi anche quello dell’esercizio “normale” del potere da parte di autorità che possono essere influenzate o condizionate da algoritmi opachi o semplicemente ignoti alla opinione pubblica.
Come facciamo quindi noi semplici cittadini a proteggerci da questa morsa fra poteri privati e poteri pubblici, forti o normali che siano?
Dobbiamo chiedere e pretendere più trasparenza e responsabilità alle piattaforme digitali, ma anche agli stati che le tollerano o le sfruttano, e intendo responsabilità in tutti i sensi del termine: responsability, accountability e liability. Bisogna partire da un assunto molto semplice: i sistemi computazionali non sono mai neutri o concepiti in astratto, ma strumenti progettati da esseri umani per risolvere i loro problemi concreti, nel modo più efficiente ed efficace possibile. A seconda di come sono ideati, programmati, gestiti e usati, questi sistemi possono esercitare la loro funzione in modi molto diversi e con esternalità (conseguenze su altri soggetti, ndr) anche inattese. In altri termini, il loro output dipende tanto dagli input forniti quanto dal processo che produce gli input e consuma l’output. Ebbene, dobbiamo richiedere alle multinazionali e alle autorità pubbliche di essere trasparenti su come queste macchine siano state costruite, su come funzionino i loro algoritmi e come si integrino ai processi organizzativi esistenti o come li modifichino e con che impatto sui soggetti coinvolti. Algocrazia infatti significa anche questo: incapacità di controllare il modo in cui sono strutturati gli algoritmi e come questi danno struttura (forma) ai nostri processi decisionali.
Soprattutto le piattaforme private si sono sempre mostrate allergiche alle leggi, basti pensare alle ultime schermaglie fra Facebook e gli editori sulla questione del diritto d’autore. La tanto decantata autoregolamentazione del web non ha funzionato. Serve una legge quindi?
Senza dubbio, è necessario un framework legislativo completo e al passo coi tempi che comprenda norme e regolamenti che trattino di questi aspetti, ma soprattutto di una sensibilità della opinione pubblica che ne ritiene prioritaria la sua applicazione e osservanza. Penso, e spero, che molto farà a proposito il prossimo regolamento europeo sull’Intelligenza Artificiale proposto dalla Commissione Europea e ora al vaglio del Consiglio Europeo. Ma non sarà un percorso facile: in queste settimane il dibattito è molto acceso su un aspetto solo apparentemente marginale: la definizione di Intelligenza Artificiale e quindi i criteri con cui riconoscere i sistemi a cui si dovrà applicare il regolamento (e quelli che invece non ne saranno influenzati).
Del resto le regole spesso sono necessarie per evitare esercizi arbitrari e abusi di potere in campi totalmente nuovi non normati fino a quel momento.
Strutturare un algoritmo è, per sua natura, un esercizio di potere: banalmente, il potere di poterlo fare. Gli informatici spesso sottovalutano l’enorme potere che possiedono quando progettano e implementano un sistema che ha un certo impatto su utenti e cittadini. E se non sei consapevole di quello che puoi fare, anche del male che puoi arrecare, allora non ne sei neppure responsabile, ti comporti come se non lo fossi. Così viene meno il classico legame tra “grandi poteri” e “grandi responsabilità” di cui parla Stan Lee, l’ideatore dell’Uomo Ragno (ognuno hai i suoi riferimenti filosofici – ride, ndr). Faccio un esempio pratico. Concentriamoci sui sistemi di riconoscimento facciale, al centro di un acceso dibattito riguardo al loro profilo di rischio (e quindi al loro legittimo impiego): sono applicazioni molto utili, pensate per semplificare, velocizzare e migliorare l’efficacia di un compito che per secoli è stato svolto da autorità di pubblica sicurezza, e cioè l’identificazione di una persona incontrata per strada. Fin qui tutto ok. Ma se queste applicazioni permettono a chiunque di identificare con facilità membri di una minoranza etnica o religiosa, esse danno questo potere a chi non dovrebbe esercitarlo, oppure amplifica oltre misura il potere dell’autorità pubblica che accettiamo lo detenga perché le permettiamo l’identificazione anche di chi, in mezzo ad una folla, non sa di essere identificato, profilato e valutato riguardo alla sua pericolosità o capacità di delinquere. Questo è quanto è successo in Cina dove le compagnie tech hanno sviluppato un sistema di riconoscimento facciale che è stato poi utilizzato per identificare persone appartenenti alla minoranza degli uiguri (la minoranza di religione islamica sistematicamente discriminata e perseguitata dal governo cinese, ndr).
Questo è un caso classico di utilizzo improprio della tecnologia da parte di uno Stato, per giunta totalitario. Ma la storia recente insegna come anche le piattaforme private Big Tech non sono da meno, si pensi a quello che è emerso nello scandalo dei Facebook Papers, laddove la compagnia fondata da Zuckerberg si è mostrata più attenta al perseguimento del profitto che al rispetto dei valori individuali e dei principi democratici, per usare un eufemismo. Ecco, una democrazia di stampo liberale come può proteggersi da tutto questo?
Siamo nel terreno del dilemma di Collingridge, secondo cui quanto più una innovazione si sviluppa, tanto più si riducono i margini di possibile intervento per tenerla sotto controllo e aumenta l’attenzione e preoccupazione degli utenti per i suoi possibili abusi. Anche se impegnativo, non vedo altra soluzione al dilemma che affidarsi al cosiddetto “principio di precauzione”: valutare i costi, rischi e i benefici di ogni nuova tecnologia dal grande impatto potenziale e, nel caso i primi fossero troppo alti o relativi a rischi eccessivi, non temere di dire di no, di astenersi da ulteriori sviluppi. Progresso e innovazione non sono sinonimi. Non di rado accade che le innovazioni tecnologiche possano abilitare o promuovere pratiche dannose per noi come individui o come comunità o contrarie ai principi in cui ci riconosciamo, quali i diritti fondamentali o i principi di convivenza democratica. Davanti a un nuovo prodotto o servizio ad alto contenuto tecnologico bisognerebbe sempre farsi due domande: a chi giova e chi danneggia? E quindi ne vale davvero la pena?
Qui arriviamo a un neologismo che potrebbe venirci in soccorso contro le forze e derive algocratiche: l’algoretica, ossia la possibilità di istruire le macchine su cosa è giusto e cosa è sbagliato fare. Parafrasando il celebre epitaffio di Kant: “Il cielo stellato sopra di me, la legge morale dentro le macchine”. Secondo lei è una strada percorribile?
Sicuramente è possibile programmare i sistemi digitali in modo che esibiscano comportamenti che una comunità giudicherebbe moralmente giusti e corretti. Del resto anche delle macchine o sistemi rudimentali come un semaforo o un dosso stradale hanno funzioni morali e perfino moralizzatrici: il primo ci permette di attraversare un incrocio pericoloso senza mettere in pericolo gli altri automobilisti, il secondo ci spinge a rallentare per ridurre il rischio di investire un pedone o un ciclista ad alta velocità e quindi di arrecare gravi danni agli altri. Tuttavia, per le macchine più complesse - intese come soluzioni a problemi ben più complessi che attraversare una strada - non è facile, se non impossibile, dare istruzioni precise perché esse adottino il comportamento più morale e giusto in tutte le situazioni che gli si possono presentare. In altri termini, non si possono prevedere tutte le situazioni davanti alle quali una macchina dovrà scegliere cosa sia giusto ed evitare cosa sia sbagliato, perché non è possibile (né sensato) “datificare” tutti i contesti e le situazioni che caratterizzano la nostra vita e la nostra azione nel mondo. E poi c’è anche un secondo problema, forse anche maggiore di questo, che è di carattere tecnico, se vogliamo.
Quale?
Se anche fossimo capaci di programmare la macchina eticamente perfetta, in tutte le situazioni prevedibili e anche in quelle imprevedibili, rischieremmo di delegare ad essa, e cioè ad altri, una delle facoltà più peculiari dell’homo sapiens: la capacità di giudizio morale e di scelta tra ciò che si ritiene giusto e sbagliato, facendosi carico di questa decisione. Le faccio un esempio. Negli Stati Uniti alcuni tribunali adottano l’algoritmo Compas, un sistema che, in teoria, dovrebbe aiutare i giudici a stimare correttamente e senza evidenti pregiudizi il rischio di recidiva di un imputato, ovvero la possibilità che compia un altro reato una volta in libertà. Come si può facilmente intuire il fine è nobile: aiutare il magistrato a prendere una decisione importante su una persona non ancora giudicata colpevole riguardo ad un suo diritto fondamentale, la sua libertà, nel modo più oggettivo e scevro di condizionamenti possibile. Però, alla prova dei fatti, questo sistema non ha funzionato sempre come si sperava, e in molti casi si è visto che non faceva altro che perseverare, legittimandoli o meglio rafforzandoli dietro una presunta oggettività algoritmica, attitudini discriminatorie nei confronti di minoranze e soggetti vulnerabili. E ciò è avvenuto proprio per i due problemi di cui parlavo prima: da una parte l’impossibilità di tradurre in dati tutti gli aspetti rilevanti e propri dell’essere umano, quali il suo carattere, le sue intenzioni, il percorso esistenziale, la sincerità; dall’altro, l’eccesso di fiducia e quindi delega dei giudici nei confronti della macchina sulle decisioni da prendere, prendendo il suo suggerimento per più oggettivo, accurato ed equo di quanto in realtà fosse. Insomma, esempi di cosiddetta giustizia predittiva ci mostrano che laddove ci si affidi a una macchina per semplificare o efficientare un processo, il gioco non è sempre a somma zero, e qualcosa si perde: non esistono pasti gratis. Solo che il conto lo pagano soprattutto i soggetti più vulnerabili, chi non ha voce in capitolo o chi non ha modo né occasione di contrastare la forza persuasiva degli algoritmi. Osserviamo fenomeni simili, di automation bias e automation complacency, in poche parole, sovraffidamento e sovradipendenza dalle macchine, anche in campo medico, dove vediamo che l’uso sempre più ampio di supporti alle decisioni molto accurati ma poco trasparenti come sono i sistemi di machine learning può incrinare la qualità del rapporto comunicativo ed empatico fra medico e paziente, che pure è così importante per una cura di qualità e una convinta aderenza alla terapia da parte del paziente, senza considerare la prospettiva che alcuni osservatori paventano (tra cui il sottoscritto) che, nel medio e lungo periodo, gli stessi medici possano incorrere in una certa forma di dequalificazione, o perdita di competenze (deskilling) a causa del loro eccessivo affidamento alle macchine “intelligenti” come surrogati di expertise clinica, piuttosto che come supporti della loro expertise diagnostica . E’ il solito tema dell’equilibrio fragile e precario tra l’investire in intelligenza artificiale e in intelligenza (umana) aumentata: spingere in una direzione può depotenziare l’altra, anche irreversibilmente.
Lei sembra dar ragione al professor Luciano Floridi, secondo cui uno dei problemi più grandi fra uomo e macchina oggi è che il primo sta adattando se stesso e il mondo alla seconda e non viceversa. Peraltro a macchine che agiscono ma che non sono intelligenti nell’accezione più vera del termine.
Il professor Floridi ha ragione, infatti io non amo parlare di intelligenza artificiale, ma piuttosto, mi si permetta il gioco di parole, di intelligenza *e* artificiale, cioè del rapporto tra le nostre facoltà più nobili e intellettuali, la razionalità e il giudizio responsabile, in una parola l’intelligenza umana, con le tecnologie digitali, quell’artificiale di cui ci circondiamo in contesti sempre più complessi per governare e ridurre questa complessità; le due cose sono distinte e confondere una con l’altra nasconde dei rischi troppo rilevanti perché si continui a ignorarli o sottovalutarli. Noi esseri umani oggi stiamo delegando sempre di più decisioni e giudizi a uno strumento che pensiamo sia autonomo e intelligente, ma che in realtà è solo uno specchio complicato della nostra ingegnosità e creatività; così facendo stiamo perdendo delle capacità, anche importanti e, soprattutto, stiamo costruendo una esistenza a misura di macchina, cioè in cui le macchine possano esercitare una influenza sempre maggiore per permettere loro di aiutarci sempre meglio e realizzare la loro promessa di controllo e tutela. Solo che si tratta di un controllo diretto da altri e che noi possiamo subire, anche senza volerlo veramente, o senza volerlo in quelle modalità.
Quindi per chiudere il discorso, quando si parla del famoso “punto di singolarità” ovvero quel momento imprecisato di un futuro in cui le macchine diventeranno più intelligenti dell’uomo, mi sembra che stiamo sbagliando prospettiva. Quel momento in realtà avverrà quando noi esseri umani sceglieremo di abdicare quasi del tutto alla nostra funzione di Sapiens a favore degli algoritmi.
Sono d’accordo. Con una ulteriore nota però: non cederemo un potere sempre più grande a macchine migliori di noi, bensì a chi starà dietro a quelle macchine, a chi le avrà progettate e a chi le gestirà, a immagine e somiglianza dei propri interessi e finalità, che non sempre sono allineati con i nostri o con quelli di una società democratica e libera. Può essere una cosa vantaggiosa, non lo nego, ma dobbiamo essere consapevoli di cosa perdiamo nello scambio.
tratto da huffingtonpost.it
Versione app: 3.25.0 (fe9cd7d)