“RenAIssance. Per un’Intelligenza Artificiale umanistica” è l’appuntamento del 28 febbraio prossimo, organizzato dalla Pontificia Accademia per la Vita.

All’atteso incontro partecipano Brad Smith, presidente di Microsoft, John Kelly III, vice direttore esecutivo di Ibm, il presidente del Parlamento Europeo David Sassoli e il direttore generale della Fao Qu Dongyu. Microsoft e Ibm firmano una ‘Call for Ethics’ che vuole aiutare le aziende in un percorso di valutazione degli effetti delle tecnologie collegate all’intelligenza artificiale, dei rischi che comportano e di possibili vie di regolamentazione, anche sul piano educativo.

A tale proposito nella dichiarazione adottata nel febbraio dello scorso anno, il Comitato dei ministri del Consiglio d’Europa, ha affermato che “l’utilizzo di dati su larga scala, da parte delle aziende, è ormai in grado di predire i comportamenti dei singoli e delle masse e quindi di influenzarli o di portare a nuove discriminazioni”.

Crescente capacità di manipolare

Le nuove frontiere delle tecnologie digitali vanno orientate, dunque, con ragione critica, al servizio della persona umana, rispettando e promuovendo la sua intrinseca dignità. In particolare, servono tutele ad hoc per i dati inferiti che riescono, attraverso analisi algoritmiche, a predire e influenzare i comportamenti, conoscenze, scelte, emozioni ed opinioni, generando difficoltà nell’uomo di fare scelte consapevoli.

La crescente capacità che hanno i computer di comprendere e manipolare dati, parole e immagini sta sollevando nuove domande sul concetto che ha l’uomo di sé, delle proprie azioni e delle proprie responsabilità, soprattutto l’impatto delle tecnologie sul rispetto della persona umana e delle sue relazioni interpersonali in famiglia, nel lavoro e in generale nella società e sulla capacità umana di autoriflessione e di libero arbitrio. Tutto questo, accompagnato dal crescente uso del Machine learning, delle molteplici forme di Intelligenza artificiale, comporta rischi crescenti per le libertà e i diritti fondamentali delle persone legati essenzialmente a forme massive di profilazione dei comportamenti singoli e, soprattutto, collettivi. Analisi comportamentali che consentono attività predittive relative ai comportamenti delle persone, alle loro preferenze, persino alle loro emozioni.

Quanto siamo realmente pronti per l’AI?

Secondo un recente sondaggio di Gartner , le organizzazioni che implementano l’AI sono aumentate del 270%, negli ultimi 4 anni, tuttavia ancora il 63% non utilizza l’intelligenza artificiale. Per molte aziende si genera l’incapacità di raggiungere un livello di confidenza desiderato con l’algoritmo.

Molti team con a bordo data science spendono e consumano tempo e budget  su modelli di AI che non superano mai la fase di test. Non tutti i progetti, quindi hanno successo:  un esempio che abbiamo visto l’anno scorso è stato il tentativo di Amazon di implementare l’IA nel loro reparto risorse umane. Amazon riceve un numero enorme di curriculum per le migliaia di posizioni aperte. Hanno ipotizzato di poter usare l’apprendimento automatico per processare tutti i curriculum e trovare il giusto candidato. Mentre il sistema è stato in grado di filtrare i curriculum e applicare i punteggi ai candidati, ha anche mostrato un orientamento al genere. Mentre questa dimostrazione del concetto è stata approvata, non hanno prestato attenzione ai pregiudizi presenti nei loro dati e il progetto è stato richiamato.

Testa l’efficacia del tuo modello con una Proof of Concept (POC) interna

Lo scopo di un POC è solo dimostrare che, in questo caso, è possibile risparmiare denaro o migliorare l’esperienza del cliente usando l’IA. Non è necessario produrre o realizzare un modello al livello di confidenza necessario per distribuirlo, solo per dire (e mostrare) che il progetto può funzionare.

Per capire se un progetto potrà raggiungere gli obiettivi aziendali è necessario solamente utilizzare un algoritmo standard, trovare dati di training open source, acquistare un set di dati di esempio, creare il proprio algoritmo con funzionalità limitate e / o etichettare i propri dati.

Di redazioneSparklingRocks