Il 2019 è l’anno dell’intelligenza artificiale, almeno così si dice. Dall’ingresso del contactless nelle metropolitane al mentoring via chatbot. Adesso si parla di agricoltura 4.0, quella che viene coltivata è l’intelligenza e non la terra.

Nel 2018 il giro d’affari mondiale dell’agri-tech, ha sfiorato i 7 miliardi di dollari, mentre in Europa ha superato 1,9 miliardi, secondo i dati dell’osservatorio del Politecnico di Milano. L’ultima invenzione in tema di AI è frutto del lavoro e dell’ingegno dell’università di Washington: l’ape cyborg. Detta così sembra il titolo di un b-movie horror, invece è l’implementazione di nano tecnologie in un contesto biologico specifico.

Sul dorso degli insetti sono stati incollati micro zainetti removibili da 100 milligrammi. Questi bagpack microscopici custodiscono sensori capaci di immagazzinare dati su luce, umidità, temperatura e monitorare la salute delle coltivazioni. Non solo, la lista delle innovazioni nell’agri-tech è molto lunga. Ci sono ad esempio software di IA usati da alcuni viticoltori, capaci di prevedere il grado zuccherino delle uve. Il risultato? Un vino sempre migliore.

Ci sono droni che mappano i latifondi, tecnologie che evitano il congelamento dei frutti nella brutta stagione, software per tracciare la filiera, trattori a guida autonoma. Domanda: è tutto così semplice e perfetto?

Ingannare l’intelligenza artificiale è facilissimo

Il campanello d’allarme era suonato già mesi fa, durante la ICML (International Conference on Machine Learning). Un ricercatore del MIT, ha mostrato ad esempio in uno studio come sia possibile far scambiare una tartaruga stampata in 3D per un fucile a un’IA introducendo dettagli per noi impercepibili, ma questo non è l’unico esempio.

Lo scorso anno Dawn Song della University of California, Berkeley, ha appiccicato alcuni adesivi in posizioni strategiche su un segnale di stop e l’IA l’ha scambiato per un limite di velocità di 70 Km/h.

A tale proposito, qualche giorno fa i ricercatori del Tencent Keen Security Lab, hanno preso il controllo di una Tesla Model s 75 e mandata, senza alcuna difficoltà contromano. Ingannare il sistema di Autopilot è stato sempliceè bastato posizionare tre adesivi su una strada, formando una sorta di nuova linea sull’asfalto, per indurre il software di intelligenza artificiale che assiste la guida delle Tesla a sterzare e a dirigersi verso le macchine in arrivo dalla direzione opposta.

La decisione di guida del veicolo si basa solo sui risultati del riconoscimento visivo della corsia. – scrivono i ricercatori –  I nostri esperimenti hanno dimostrato che questa architettura presenta rischi per la sicurezza e il riconoscimento della corsia”. “Se il veicolo sa che la falsa corsia punta verso la corsia contromano, dovrebbe ignorarla”.

L’errore e il fallimento possono generare solo nuove opportunità. E’ importante prendere atto dei cosiddetti adversarial attack, per dirigersi su strade sicure, ripensando a nuove concezioni di apprendimento automatico e riscrivendo algoritmi più complessi e migliori.

Di redazioneSparklingRocks