Intelligenza Artificiale + Algoritmi = Supposizioni

Se ne dovrebbe parlare frequentemente per l’impatto che ha già e che continuerà ad avere sulle nostre vite, eppure l’Artificial Intelligence (AI) è quasi sempre assente dalle prime pagine dei giornali più diffusi.

Nel proporre contenuti diversi da quelli mainstream, ma di essenziale importanza, mi sembra utile contribuire alla sensibilizzazione dei lettori a proposito di un tema così vasto e delicato, pubblicando tradotto in italiano un articolo recentemente scritto da Hazel Henderson, saggista, studiosa di economia etica e fondatrice di Ethical Markets Media, già da me intervistata a proposito del vero significato della sostenibilità.

Il contributo originale, scritto in lingua inglese e pubblicato su CSRwire, è disponibile a questo link. E’ doveroso quindi da parte mia ringraziare sia Hazel Henderson sia CSRwire. Buona lettura!

Artificial Intelligence + Algorithms = Assumptions!

 L’Intelligenza Artificiale (IA in italiano, AI in inglese) si è fatta strada nel dibattito pubblico grazie alla recente vittoria di Deep Mind su un campione del gioco cinese di Go. L’IA punta a migliorare i computer nella risoluzione di problemi che in precedenza si riteneva di dover lasciare agli esseri umani in quanto troppo complessi.

A partire dagli anni Settanta, un piccolo gruppo di specialisti informatici e di matematici si è concentrato sull’insegnare alle macchine a seguire un apprendimento basato sulle regole del ragionamento umano. Ha progettato algoritmi (codificando queste regole in programmi software) i quali, essi speravano, avrebbero permesso ai computer di emulare i processi del pensiero umano.

algoritmi e IA

algoritmi e IA

Oggi, quegli algoritmi gestiscono in maniera crescente le nostre vite quotidiane. Possono decidere se la nostra affidabilità creditizia è buona, se possiamo essere assunti per un lavoro, se possiamo salire su un aereo o essere ammessi nel paese di destinazione di un viaggio. Gli algoritmi dominano le Borse mondiali, valutando la maggior parte delle aziende e decidendo se comprare o vendere o se causare crolli improvvisi. Le campagne politiche sono basate su algoritmi che decidono quali elettori si presenteranno e quali candidati favoriranno. Il tanto celebrato Internet of Things (Internet delle cose) usa degli algoritmi per monitorare i nostri bambini, aprire le serrature, controllare il nostro uso dell’energia, guidare le nostre auto e supervisionare i nostri programmi di fitness e le nostre diete. Gli algoritmi controllano quali annunci pubblicitari visualizziamo online, monitorano le nostre abitudini d’acquisto e seguono i nostri movimenti con il GPS e i nostri smartphone. Gli algoritmi programmano con sempre maggiore frequenza i droni e i sistemi di armamenti.

Questo mondo nuovo degli algoritmi e dei big data(1) ha preso il controllo delle economie della maggior parte delle società post-industriali e delle vite dei loro cittadini. Molti si godono la nuova connettività, i social media e gli stili di vita sempre connessi, rinunciando felicemente a gran parte della propria privacy e delle proprie informazioni personali. In pochi si sono posti delle domande circa le ipotesi e le distorsioni che i programmatori umani potrebbero aver installato in tutti questi algoritmi.

Stanno venendo alla luce nuove prove di come tali distorsioni umane inconsciamente presenti nella maggior parte delle persone possano stravolgere gli algoritmi: esse includono pregiudizi di genere e razziali che possono influenzare la selezione del personale per un posto di lavoro.  

Sul settimanale New Scientist (16 luglio 2016), descrivendo in quale modo gli algoritmi con tali principi nascosti abbiano negato alle persone l’accesso al credito, a posti di lavoro e anche alla libertà condizionale, Aviva Rutkin saluta con favore il nuovo regolamento generale sulla protezione dei dati recentemente approvato dal Parlamento Europeo. Questo regolamento richiede che le aziende impediscano tale discriminazione filtrata dagli algoritmi e celata dietro la maschera dell’imparzialità matematica.

Rutkin cita inoltre il simposio alla Casa Bianca sull’IA che ha preso in esame questi temi e il modo in cui i programmatori di Silicon Valley e i tecnocrati possano arbitrariamente dettare le politiche che riguardano le vite dei cittadini.

Un vergognoso esempio di un algoritmo difettoso è stato portato alla luce da un team di scienziati svedesi su The Economist del 16 luglio scorso. Gli autori hanno scoperto che 40.000 studi di ricerca sul cervello basati sull’uso di scansioni magnetiche funzionali del cervello erano risultate prive di valore a causa di un’interpretazione errata dei pattern di flusso ematico postulati dagli algoritmi applicati. Un altro esempio è quello delle previsioni della International Energy Agency, che non riescono a comprendere il cambiamento dai combustibili fossili alle rinnovabili.

In molti paesi si sono aperti diversi dibattiti sull’IA, sui robot, sulla perdita di posti di lavoro e sui problemi connessi a privacy e sicurezza, che riguardano chi possiede tutti questi dati personali i quali vengono trasformati in algoritmi dalle agenzie di intelligence, dalle aziende di social media, da agenzie pubblicitarie, dagli esperti di marketing, dalle banche e dalle compagnie di assicurazione e dalle forze dell’ordine. Tutti questi dati hanno grande valore e sono vitali nelle nostre economie basate sull’informazione. L’ex chief scientist di Microsoft, Jaron Lanier, nel libro del 2012 Who Owns the Future? (traducibile come “Chi possiede il futuro?” ndt), afferma che Google, Facebook, Amazon, LinkedIn, Snapchat o Instagram dovrebbero pagare ogni utente per ogni pezzetto delle loro informazioni personali.  

Lanier spiega che i modelli di business di queste aziende vendono dati ai pubblicitari, agli assicuratori, ai banchieri, alle campagne politiche e di conseguenza ogni utente dovrebbe ricevere un pagamento per i propri dati – abbastanza fattibile con i software esistenti.

L’opinione pubblica si sta risvegliando a questa nuova minaccia dei big data visti come “Grande Fratello” riconoscendone al contempo tutti i potenziali benefici. Molte delle idiozie promosse per il profitto dell’Internet delle cose non servono. Per esempio, una ricerca della Parks Associates ha scoperto che il 47% delle famiglie con broadband hanno timori relativi alla privacy e alla sicurezza relative agli smart device casalinghi. Tom Kerber, Direttore della ricerca, cita inchieste dei media che raccontano di violazioni di baby monitor e di veicoli connessi e suggerisce che se le aziende offrissero una carta dei diritti ai consumatori, ciò contribuirebbe a far diminuire le preoccupazioni. Quanto meno, uno standard per tutti gli smart device dovrebbe permettere agli utenti di staccarne la connettività e di azionarli manualmente.

Il contributo scritto da Demis Hassabis, fondatore di Deep Mind, per l’istituto Future of Humanity dell’Università di Oxford auspica tali “spegnimenti” dei sistemi di Intelligenza Artificiale (The Economist, 25 giugno 2016).  Come funzionerebbero tali dispositivi di sicurezza nella finanza elettronica? In qualità di consumatori, abbiamo bisogno di maggiore accesso per monitorare tutte le logiche relative agli algoritmi che gestiscono le nostre vite.

Greg Lindsay di New Cities Foundation riporta nel documento Smart Homes and the Internet of Things che il 66% degli utenti di smart phone hanno paura che tali dispositivi registrino i loro movimenti. Il seminario dello scorso marzo del The Atlantic Council’s su Smart Homes and Cybersecurity è giunto alla conclusione che è troppo tardi per proteggere i proprietari delle case e gli altri utenti. Il fondatore di Google, Larry Page, sta investendo miliardi nello sviluppo di automobili volanti (articolo Propeller Heads su Businessweek del 6 giugno 2016). E’ questo ciò che la gente vuole?

Durante una recente udienza presso il Senato, l’ingegnere automobilistico Mary Louise Cummings di Duke University ha rilasciato una dichiarazione sui veicoli senza guidatore per i quali Google, General Motors e Ford richiedevano finanziamenti per oltre tre miliardi di dollari. La Cummings ha fatto notare che queste aziende non avevano condotto nessun vero test su veicoli senza guidatore e ha espresso dubbi in merito alla loro autonomia e sicurezza. Che valore aggiunto apporterebbero nei nostri cieli già affollati alla qualità della vita del 99% delle persone delle auto e dei droni volanti destinati all’1%?

Hazel Henderson

Hazel Henderson

Per tutte queste ragioni, Ethical Markets propone un nuovo standard per modificare l’equilibrio del potere riportandolo a consumatori e cittadini, ovvero un nuovo Habeas Corpus delle informazioni. La Gran Bretagna adottò nel 1215 il principio dell’Habeas Corpus, che sanciva l’inviolabilità personale, codificato poi dal Parlamento nel 1679. Oggi è necessario estendere questo diritto umano essenziale ai nostri cervelli e a tutte le informazioni che generiamo con tutte le nostre attività. E’ tempo di istituire l’Information Habeas Corpus!

Hazel Henderson

(1) Big data è il termine utilizzato in riferimento a una raccolta di dati così ampia in termini di volume, velocità e varietà da richiedere tecnologie e analisi specifiche per l’estrazione di valore.

Immagine somepics

 

Lascia una risposta

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>