Apprendimento automatico: per il momento siamo meglio delle intelligenze artificiali

di Luca Mario Nejrotti

Durante un test, l’inserimento di un elemento incongruo in un determinato contesto, come un elefante in un soggiorno, ha confuso i software di riconoscimento immagine, che si sono rivelati incapaci di reinterpretare i dati a loro sottoposti.

Il contesto.

La frontiera dell’apprendimento automatico è un settore di sviluppo fondamentale delle intelligenze artificiali, che permetterà ai software di riconoscere oggetti nelle stanze, visi, automobili: questo aprirà la strada a guida automatica e sorveglianza computerizzata, ma, per il momento, sembra che la completa autonomia dei computer sia di là da venire.

L’elefante nella stanza.

Lo studio canadese (vedi) ha voluto valutare i livelli di visione, percezione e comprensione dei software di riconoscimento immagini: si è prima presentata la scena di un soggiorno e il computer è stato in grado di riconoscere un divano e la persona seduta su di esso, una sedia e una mensola su cui erano allineati libri. I ricercatori hanno poi inserito un elemento incongruo, un elefante, dimostrando la fragilità non solo della comprensione dei software, ma della loro vera e propria percezione: infatti il computer non solo non è riuscito a riconoscere l’elefante, ma la sua presenza ingiustificata nell’immagine ha condotto all’interpretazione errata anche degli altri elementi, i cui pixel venivano ricondotti a forme errate. “Succedono un sacco di cose strane che sottolineano la fragilità degli attuali sistemi di rilevamento degli oggetti”, secondo Amir Rosenfeld, della York University di Toronto e coautore dello studio insieme al collega della York John Tsotsos e a Richard Zemel dell’Università di Toronto (vedi).

Per ora primi.

La capacità del cervello umano di elaborare l’incredibile quantità di informazioni che percepiamo dagli occhi non è ancora stata emulata dai software che per il momento scompongono le immagini in tasselli che poi raggruppano via via secondo livelli sempre più astratti fino a darne un’interpretazione che rientri nelle categorie a disposizione nel proprio database.

Le reti neurali sembrano essere il futuro della programmazione, ma è anche vero che prima di poter affidare la nostra vita a un’automobile, guidata da questi sistemi dovremo essere ben sicuri della loro capacità. Per questo si stanno diffondendo test che accanto ai successi ottenuti nel riconoscimento, ad esempio, delle diverse razze di cane o delle diverse marche di automobili, mettano alla prova i computer tentando, e sin troppo spesso riuscendo, di coglierli in fallo.

La seconda occhiata.

I computer non hanno quella capacità che gli umani acquisiscono fin da bambini: quella di rendersi conto del fatto che una scena sia confusa e di capire che sia necessaria una “seconda occhiata”.

Le reti neurali procedono in un senso solo, partendo dal più piccolo e procedendo in un’unica direzione, senza potersi rendere conto di un errore e quindi tornare indietro nel processo per concentrarsi nel momento che ha causato l’abbaglio. Sarà quindi necessario creare reti neurali in grado di emulare questa capacità umana, il che, però, è una sfida ambiziosa perché sarà fondamentale non soltanto dare la possibilità della “seconda occhiata”, ma anche la sensibilità del capire quando si sia sbagliato.

 

Questo per evitare che la nostra auto futura esca tragicamente di strada la volta che incroci un elefante in pieno centro.

 

Fonti.

http://www.lescienze.it/news/2018/10/03/news/apprendimento_automatico_elefante_stanza-4138307/

https://www.quantamagazine.org/machine-learning-confronts-the-elephant-in-the-room-20180920/