Se abbiamo definito l’algoritmo un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui, in un tempo ragionevole, oggi tale definizione è ancora valida?

Molti anni fa, nel 2008 era stato lanciato un allarme, sulle possibili distorsioni prodotte dalla cultura dell’algoritmo: Nicholas Carr, scrittore statunitense dalle pagine di “The Atlantic”, accusava Google di renderci stupidi. In quel periodo, ma anche oggi, tutte o quasi le aziende erano concentrate sulla massimizzazione dell’audience, colpire il target, diffondere il virus con le campagne virali.

Sempre più spesso si delega ad uno script la responsabilità del pensiero e del pensare. Ci sono algoritmi che stabiliscono l’entità della pena detentiva di un condannato, scelgono la futura compagna o moglie, decidono il percorso lavorativo di un individuo, sulla base a volte di criteri misteriosi o discutibili. Gli esseri umani non sono perfetti e anche gli algoritmi risentono dei pregiudizi volontari o involontari di chi li ha creati. Dall’Università di Stanford al Mit di Boston nascono strutture con l’obiettivo di mettere nuovamente l’uomo e i principi etici al centro dello sviluppo dell’Intelligenza artificiale.

Gli scienziati non vogliono perdere il controllo, situazione che si potrebbe verificare con le tecniche del machine learning, dove le macchine non vengono più programmate dall’uomo ma tendono a imparare da sole.

Usa, una legge contro gli algoritmi discriminatori

Una ricerca pubblicata sull’Economist, mette nero su bianco le voci che da qualche tempo girano sulla rete di algoritmi discriminatori applicati a campagne pubblicitarie. L’algoritmo in pratica decide quale target colpire: propone ad esempio, in modo del tutto arbitrale l’acquisto di una casa coloniale ad una audience costituita solo di uomini, benestanti e di razza bianca.

Il tema si è trasformato da una voce a una legge. Negli Stati uniti i senatori democratici Corey Booker e Ron Wyden, e la Rappresentante Yvette Clarke hanno proposto una nuova legge “Algorithmic Accountability Act” che se approvata dalla Federal Trade Commission avrà la responsabilità di stabilire una serie di regole per la valutazione dei sistemi automatizzati “altamente sensibili” e le società si troveranno a dover verificare se gli algoritmi alla base del funzionamento di tali sistemi siano parziali o discrimonatori, così come se pongano rischi per la privacy e la sicurezza dei consumatori.

La proposta di legge è rivolta in particolare alle grandi società che “maneggiano” grandi quantità di informazioni: realtà con un giro d’affari superiore ai 50 milioni di dollari l’anno, che detengono informazioni relative ad almeno 1 milione di individui o dispositivi, o che agiscono principalmente da “data broker” con la compravendita di dati dei consumatori.

Sulla nuova proposta di legge il Senatore Wyden ha dichiarato: “I computer entrano sempre più in gioco nelle decisioni più importanti che si ripercuotono sulla vita degli Americani – se si possa o meno comprare casa, avere un lavoro o addirittura finire in prigione. Ma invece di eliminare le ingiustizie, troppo spesso questi algoritmi dipendono da vizi o presupposti parziali o dati che in realtà rafforzano la discriminazione contro le donne e le persone di colore”. (fonte https://www.hwupgrade.it)

Da leggere

Hello World di Hannah Fry

The Shallows: What the Internet Is Doing to Our Brains di Nicholas G, Carr

Di redazioneSparklingRocks