Intelligenze artificiali: strumenti o agenti? Un problema etico.

L’ascesa delle intelligenze artificiali e del machine learning ha portato alla luce le profonde discriminazioni che le intelligenze artificiali, se prive di controllo, possono creare o amplificare. Per la prima volta, un sistema etico costruito per valutare le azioni di esseri umani adulti si trova a dover definire e valutare strumenti tecnologici in grado di prendere decisioni di alto livello come, per esempio, fare diagnosi, prevenire frodi o concedere prestiti. Finora il risultato è stato quello di perdere il controllo dello sviluppo e dell’applicazione delle intelligenze artificiali rendendo difficile individuare bias e discriminazioni.

Una possibile soluzione è pensare a questi problemi etici durante il design delle AI.

Un’altra opzione, più interessante, è considerare le intelligenze artificiali alla stregua di agenti umani e di sottoporle allo stesso processo di controllo, condivisione e ownership delle decisioni che viene applicato in ambienti ad alto rischio etico come, per esempio, la medicina.

Di cosa parliamo quando parliamo di AI

Parlare di intelligenza artificiale mi sembra sempre un discorso fantascientifico. Le intelligenze artificiali disponibili sul mercato sono ben diverse da quelle dotate di cervelli positronici di Asimov ma sembra quasi impossibile che esistano AI in grado di guidare automobili, fare diagnosi mediche e giocare alla pari con campioni umani a svariati giochi da tavola e videogiochi.

Spesso si parla delle intelligenze artificiali, soprattutto nella divulgazione meno tecnica, con un insieme di termini diversi: algoritmi, machine learning, programmi autonomi, robot, automi e così via.

In questo articolo parleremo in generale di intelligenza artificiale o AI, ma ci riferiremo ad un particolare di intelligenza artificiale che ci farà da esempio per tutto l’enorme campo dell’artificial intelligence. Considereremo solamente le intelligenze artificiali che non sono “programmate a mano” ma che apprendono il loro comportamento dai dati. Esistono vari modelli di queste intelligenze artificiali (reti neurali, support vector machinedeep neural network e così via) ma per oggi non è importante distinguerle. La differenza tra un’intelligenza artificiale prodotta con una tecnica di machine learning e una programmata a mano è più grande delle differenze interne tra i vari tipi di reti neurali. Per le prime il comportamento viene definito da chi si occupa dello sviluppo, mentre per le seconde il comportamento viene prodotto autonomamente attraverso l’addestramento. Spesso le logiche e le formule dietro a tale comportamento sono sufficientemente complesse da essere opache persino a chi le sviluppa.

Questa è una differenza abissale sotto il profilo etico e filosofico. Pensate a Alpha Star, l’intelligenza artificiale che ha imparato a giocare a StarCraft II (un famoso videogioco di strategia). Alpha Star ha imparato a giocare osservando giocatori umani e poi giocando tornei contro versioni freezate ad un certo livello di bravura di se stessa. Nessuno nel team di sviluppo sapeva giocare al livello che l’intelligenza artificiale ha raggiunto. Di chi è il merito delle vittorie di Alpha Star?

Le luminose promesse delle Intelligenze Artificiali

Negli ultimi due decenni le intelligenze artificiali sono tornate alla ribalta. Grazie allo sviluppo di nuove tecniche di machine learning e al miglioramento di tecniche già esistenti, le intelligenze artificiali sembrano poter promettere e realizzare qualsiasi cosa ben oltre al campo dei videogiochi. Intelligenze artificiali basate su tecniche di machine learning sono state applicate con successo ai più disparati campi: dalla concessione del credito, alla diagnosi medica passando per la guida autonoma di automobili e la previsione di frodi e crimini. Le promesse sono sempre le stesse: abbattere i costi, ottimizzare i sistemi, ridurre l’errore umano.

Sebbene questi sviluppi siano incredibilmente affascinanti non sono privi di un lato problematico. Qualcuno direbbe che hanno…

…Un lato oscuro

Nel 2013 il governo olandese ha deciso di utilizzare un’intelligenza artificiale per individuare quali richieste di aiuto per il mantenimento dei figli fossero fraudolente. L’intelligenza artificiale doveva individuarle in uno stadio preliminare facendo risparmiare allo stato il lungo processo burocratico di scoprire alla fine che la richiesta era fraudolenta fin da t0.

Nel 2019 lo stesso governo ha dovuto ammettere che i meccanismi alla base dell’intelligenza artificiale avevano profondi bias. Molte famiglie, segnalate dal sistema come “ad alto rischio” (e quindi escluse dagli aiuti statali), non lo erano affatto: anzi, avrebbero avuto pieni diritti al supporto statale. Si suppone che uno dei fattori di rischio valutati dalla macchina fosse la doppia etnicità dei genitori o le origini fuori dalla nazionalità olandese: fattori ad alto rischio etico che, normalmente, vengono esclusi da processi decisionali del genere. Giustamente.

Ma come abbiamo detto, i punti di forza principali di queste nuove tecnologie sono l’autonomia decisionale, la velocità operativa e il (relativamente) basso costo di sviluppo. Tutti e tre i fattori sono stati pesantemente coinvolti nello scandalo olandese: per abbattere i costi e rendere più veloce il sistema burocratico, l’intelligenza artificiale è stata privata di qualsiasi forma di controllo, sia in fase di sviluppo che in fase di applicazione. L’intelligenza artificiale olandese ha deciso autonomamente chi escludere dal sistema di supporto economico senza che nessun essere umano si sia preso la briga di controllare. Quello olandese non è un caso isolato.

Non è un fatto isolato

Questo trade-off tra il vantaggio economico derivante dall’ottimizzazione tecnologica e la libertà dal controllo etico e politico è tipico dello sviluppo tecnologico contemporaneo. Basti pensare alle dinamiche attorno alla privacy dei social network. Nella storia recente delle intelligenze artificiali, però, gli scandali si sono susseguiti con una certa frequenza. Da quando le intelligenze artificiali sono uscite dal campo della ricerca e hanno trovato una vera e propria applicazione industriale, sono già state protagoniste di svariati casi come quello olandese. Intelligenze artificiali applicate al campo legale hanno discriminato minoranze etniche negli Stati Uniti d’America. Reti neurali per il triage delle terapie intensive hanno escluso persone solo sulla base dell’appartenenza a determinati quartieri e così via.

Alcuni di questi casi sono attribuibili a bias già presenti nei database di addestramento. Altri casi sono imputabili all’opacità implicita di alcuni modelli di intelligenza artificiale. Sia per complessità sia per la mancanza di tecniche di controllo (efficaci e cost-effective) delle sue logiche interne risulta difficile sapere a priori come si comporterà una AI sul campo.

Rimane però una domanda: come ha fatto la nostra controversa AI olandese ad agire incontrollata per così tanto tempo? Stranamente, la risposta è filosofica.

Agenti o strumenti? Questo è il dilemma

Un paio di studi hanno scoperto che le persone hanno due tendenze diametralmente opposte quando si trovano ad interagire con un sistema complesso e in grado di prendere decisioni di alto livello (aka un’intelligenze artificiale, ma anche il navigatore di Google Maps). Un gruppo si approccia dando per scontato che l’intelligenza artificiale non possa essere capace quanto un’esperta umana. Gli mancano tutte quelle doti, come per esempio un linguaggio complesso, che siamo naturalmente portati a collegare con l’intelligenza.

Dall’altra parte alcune persone accettano qualsiasi output come corretto. Il ragionamento sembrerebbe essere che, in fondo, un software non abbia i bias e non commetta gli errori di un essere umano affaticabile, irascibile e alle prese con complessi e scomodi processi biologici.

Al primo contatto con un’intelligenza artificiale le persone sono equamente distribuite tra le due tendenze ma, man mano che passa il tempo e se i successi della AI sono palesi, il secondo gruppo diventa sempre più nutrito.

La verità è che le intelligenze artificiali ci sembrano essere più simili a noi che a uno strumento qualsiasi. Il problema di definire quanto le AI siano simili ad agenti non è banale e ha scaturito negli anni e soprattutto recentemente intensi dibattiti etici e non solo.

In etica, un individuo (pensiamo a un essere umano adulto, ma anche a un bambino o a un gatto) può essere definito come agente etico se soddisfa tre requisiti. Deve essere autonomo nelle decisione che prende, adattabile all’ambiente che lo circonda e interattivo con esso.

Se adattabilità e interattività sono concetti meno controversi, il perno di molte domande filosofiche ruota sull’autonomia. Un individuo soddisfa il requisito dell’autonomia se può passare da uno stato all’altro senza essere influenzato da elementi esterni. Un gatto che si che decide di rompere un vaso è autonomo (e infatti tendiamo a sgridarlo e a comportarci come se fosse pienamente responsabile e potesse scusarsi). Un bambino incitato dal fratello maggiore a rompere il vaso della nonna lo consideriamo meno autonomo (e lo sviluppo del lobo prefrontale sembra darci ragione). L’autonomia è quindi una scala sfumata di valori e dipende notevolmente dalla nostra percezione delle situazioni e degli agenti in questione.

Chi sostiene somiglianza tra intelligenze artificiali e agenti umani si basa su tre caratteristiche fondamentali:

1) Autonomia. A differenza di qualsiasi altro strumento con cui abbiamo a che fare, le AI prendono decisioni di alto livello che non sono state scelte a priori da un essere umano. Regole interne generate con tecniche di machine learning non sono la stessa cosa che regole programmate a mano e comportamenti scelti a priori.

2) Adattabilità. Nei limiti del loro ambito di applicazione, le intelligenza artificiali sono in grado di cambiare comportamento in base alle situazioni: anzi, è un loro punto di forza.

3) Interattività. Le intelligenze artificiali sono in grado di essere “consapevoli” dell’ambiente in cui si trovano e ad agire in base ad esso e ad avere effetti su di esso.

Dotati di questi tre parametri di giudizio fondamentale possiamo ora tornare a una delle domande che ci siamo posti all’inizio. Di chi è il merito delle vittorie di un’intelligenza artificiale? O di chi è la colpa dei suoi errori?

Se la somiglianza tra un’AI e un agente è così forte da farcele sembrare come autonomeadattabili e interattive in parte il merito e la colpa sono loro… Così come daremmo la colpa al gatto per il vaso rotto.

Soluzioni

Esattamente come per un gatto, sarebbe difficile portare un’intelligenza artificiale a prendersi le sue responsabilità (per ora).

A livello etico sono state create delle soluzioni per situazioni in cui una retribuzione postuma non sodisferebbe completamente il nostro senso di giustizia. Alcune di queste possono essere applicate anche alle intelligenze artificiali.

Prima di tutto si può creare attorno alle AI delle strutture di condivisione e supporto della responsabilità etica della loro applicazione in ambienti ad alto rischio come il sistema previdenziale o quello sanitario. Come per le ricerche mediche, un board di rappresentanti delle categorie interessate nell’applicazione dell’intelligenza artificiale può essere chiamato durante lo sviluppo per valutare quale livello di accuratezza è accettabile e controllare che i dati utilizzati e i risultati finali non siano fortemente sbilanciati.

In secondo luogo si possono progettare architetture della scelta in cui le intelligenze artificiali fungono da secondo parere. Per esempio: invece che escludere direttamente le famiglie dal reddito, potrebbero creare un report o flaggare le famiglie lasciando il compito a un umano di verificare e attivare il processo di esclusione vero e proprio. Oppure, e forse sarebbe la scelta migliore, si può lasciare la decisione agli esseri umani e utilizzare le intelligenze artificiali come un secondo parere. L’ultima sarebbe una strada facilmente percorribile in ambito medico dove un secondo parere è comunque costoso e difficile da organizzare per le strutture sanitarie.

Concludendo, per imbrigliare le intelligenze artificiali e i vantaggi economici che possono portare in ambienti delicati, dobbiamo prestare particolare attenzione al design delle intelligenze artificiali stesse e a condividere il loro sviluppo e la loro applicazione con tutte le parti interessate.

Un’ultima domanda filosofica

L’analisi del livello di autonomia, adattabilità e interattività di un agente dipende molto dal livello di astrazione a cui si compie l’analisi. Immaginiamo un robot umanoide governato da un’intelligenza artificiale programmata “tradizionalmente”. Astraendo da circuiti e codice, il suo comportamento esterno potrebbe essere identico a quello di un essere umano. Considerando tutto l’insieme di circuiti e if statement “al suo interno” sarebbe più difficile considerarlo autonomo. Ma non è così anche per un essere umano? Considerando tutte le attivazioni neuronali non sembreremmo anche noi completamente legati all’ambiente e senza una vera autonomia decisionale?