martedì 10 gennaio 2017

Il Nettuno di Bologna: un'opera d'arte incompresa dal software?

Da mesi segnalo decine di account fake ed ogni volta Facebook mi risponde gentilmente ed in tempi rapidi che il profilo non viola gli standard della comunità, poi una giovane scrittrice cerca di sponsorizzare una foto con la statua di Nettuno di Bologna e non gliela accettano perché "esplicitamente sessuale" ... I misteri degli "standard della comunità Facebook". Nello stesso tempo un quesito che si pone: può la macchina, il software, l'automatismo, sostituire il cervello umano? 
la statua di Nettuno così come proposta a Facebook
la notifica ricevuta dalla scrittrice
Questo caso pare dirci di no. L'uomo ha una mente che non "rileva il nudo" come accade con un automatismo di Facebook ma sa discernere l'opera d'arte dal corpo fisico, la persona dalla sua rappresentazione, il sexy dal porno, il nudo artistico dal nudo volgare. La macchina rileva forme, ma non può conoscere il contesto in cui tali forme sono inserite. Il "sessualmente esplicito" è definizione vaga in quanto tende ad oggettivare un elemento come il nudo che viene percepito in modo differente a seconda di chi osserva e non può pertanto essere oggettivo. O almeno non può esserlo in relazione alla possibilità che tale nudo sia "esplicitamente sessuale" nel momento in cui si tratta di un'opera d'arte.  
Non è un tema da poco. E non si applica solo all'arte e alle sponsorizzazioni Facebook: il tema è ben più ampio e porta a chiedersi fin dove la risposta automatica di una chat di assistenza clienti possa sostituire la persona fisica che assiste il cliente, fin dove il robot può compiere gli stessi gesti dell'uomo. Non nei contenuti, ma nella effettiva capacità di calare il gesto nel contesto. Un uomo non considererebbe una statua di un centro storico come elemento che viola gli standard della comunità: non si porrebbe neppure il problema. E' chiaro che trattasi di opera d'arte, di manifestazione di bellezza e pertanto viene protetta e accolta dalla comunità tanto che si trova in una piazza cittadina in bella vista. 
Che vadano ripensate le tecniche di giudizio di Facebook? Spesso anche la segnalazione di video violenti non porta ad una risposta del social network concreta ma solo ad una risposta automatica. Probabilmente il rilevatore di nudo-violenza-fake e la capacità di discernere cosa urta l'animo umano e viene percepito come fastidioso dallo sguardo di chi osserva sono da ricalcolare, o da "umanizzare". 
Dunque il problema è che l'opera d'arte non è compresa dal software o che non dovremmo delegare ad un software la nostra capacità critica di analisi, osservazione, decriptazione delle immagini? 

Nessun commento:

Posta un commento

Prima pensa, poi scrivi