home > 
scritti
mar 2023 |  commento   

Un dettaglio campione

Un dettaglio campione



La foto censurata

La foto censurata













Domandarsi quali criteri guidino il comportamento dei sistemi automatici mai come oggi è una necessità, non solo per capire al realtà che si va delineando, ma anche per realizzare quali curiose combinazioni si creano talvolta all'intersezione tra regole procedurali e sistemi di convenzioni sociali e culturali.


Qualche tempo fa ho pubblicato su Facebook una serie di 14 foto scattate nell’agosto del 2015 a Bordeaux sulla fontana Le Miroir d’eau che dal 2006 occupa una parte consistente della piazza che affaccia il centro città sulla Garonna. Sono immagini che ritraggono adulti e bambini mentre si godono la frescura dell’acqua, cioè il sollievo che può dare in un’afosa giornata d’agosto un pavimento allagato e punteggiato da getti d’acqua, e si possono vedere cliccando qui

Ma qualche minuto dopo il caricamento una finestrella del browser mi ha avvertito che una delle immagini del post non poteva essere mantenuta visibile al pubblico a causa della presenza di nudo o attività sessuali e che per punizione per 24 ore non avrei potuto, postare, commentare o mettere emoticon a nessun contenuto pubblico della piattaforma.
Naturalmente ho reagito alla disposizione affermando attraverso le successive finestre di dialogo che la decisione era ingiusta e basata su un giudizio sbagliato senza però ottenere nulla.

Ma com’è stato possibile che quell’unica foto, del tutto simile alle altre, sia stata scambiata per un’immagine di nudo se non ci sono genitali in vista e neppure il più timido capezzolo sfugge al bollore occhieggiando attraverso vesti femminili tutte decentemente composte, specie dal bacino in su?

La risposta è ovviamente solo ipotetica, dato che il cosiddetto algoritmo non applica delle regole impartite esplicitamente e dunque solo dissezionando le ‘mappe logiche’ che si è creato autonomamente potremmo capire come si dispone ad agire. Eh si, perché in quell’empireo della sistematizzazione formalizzante che è l’informatica, di fronte alla complessità della significazione per immagini con le loro ambiguità di senso, per evitare l’improba impresa di grammaticalizzare l’impossibile si risolve, con un grado di efficienza che si ritiene adeguato alla necessità, col più fascista dei metodi: si è addestrato il software di censura automatica somministrandogli grandi masse di esempi marcati come positivi o come negativi. Esempi di casi accettabili ed esempi di casi inaccettabili. Di immagini che possono circolare e di immagini da vietare. Quello che per semplicità chiamiamo l’algoritmo, nel caso specifico, è una cosiddetta rete neurale, che come ho detto, attraverso ripetute somministrazioni di esempi si crea una logica interna di cosa può passare e di cosa no. E alla sua procedura valutativa viene sottoposta ogni immagine che gli utenti caricano che così penderà dal suo giudizio. Poi ci sono naturalmente degli strumenti per appellarsi, chiedere la revisione, eccetera. Che nel mio caso specifico non sono neppure serviti perché sono ricorso anche all’Oversight Board senza ottenere soddisfazione. Ma questo qui non importa. Importa invece di capire il perché abbia giudicato indecente un’immagine che secondo le convenzioni iconografiche correnti non si può giudicare tale.

Dopo aver guardato a lungo quella foto e le altre della serie credo infine di aver capito, o meglio: di avere un’ipotesi plausibile. Qualcosa che spiega abbastanza esaustivamente quello che può essere avvenuto in base ai parametri di analisi e valutazione che un sistema con tutto sommato ridotte capacità di discernimento iconico può usare. Di fatto dal colore e dalle proporzioni corporee l’algoritmo può riconoscere dei bambini, e quei bambini sono in gran parte seminudi (grandi porzioni corpo di colore rosaceo). E anche gli adulti, nel contesto extra-ordinario di un pavimento allagato, nei limiti della pubblica decenza espongono più che possono i loro corpi alla frescura. Non c’è niente di osceno in questa come nelle altre foto; solo che per mettere in evidenza quella gioiosa occupazione di tutti a far godere i propri corpi del fresco le mie inquadrature sono rivolte verso il basso. In realtà, nel ridotto del display attraverso cui traguardavo la scena, ero attratto in primo luogo dalle metamorfosi visive che subivano i corpi specchiati dall’acqua. Dalle perturbazione grafica dei loro tratti riflessi che si vedevano in ogni dove e per le quali le pose plastiche, i contorcimenti e i gesti inattesi producevano una messe di begli esempi visivi. Solo dopo ho capito quanto quel tagliare le teste e gli sguardi mettesse in luce un godimento corporeo, un’inattesa, palpabilissima, matissiana joie de vivre. Un sincretismo estesico che va oltre il solo ambito del visivo.

Ma, e qui fende l’aere cibernetico la mannaia algoritimica, col mio fotografare ho intersecato il dominio delle foto rubate, di quegli scatti d’intimità che vorticano nel web sporcaccione e che per essere anonimi alterano maldestramente i tratti somatici. E’ il dominio del furto d'intimità che per definizione evita lo sguardo di chi è ritratto. Insomma, le mie foto di bambini seminudi e di corpi frescheggianti sono state giudicate appartenere al genere ignominioso delle foto rubate, pornografiche o pedofile. Il sistema automatico, perfettamente incosciente, ha applicato l’abilita maturata col training, quando gli sono state sottoposte innumerevoli immagini rubate che gli sono state marcate come immagini inaccettabili. Ha imparato la regola che regge un genere rappresentativo, caratterizzato dalle condizioni di esercizio della cattura fotografica e l’ha applicata senza riconoscere il contesto. Non si è reso conto che c’erano troppe persone per un atto in genere connotato dalla segretezza, non ha poi confrontato la singola foto con quelle della serie a cui appartiene, pur analizzando sicuramente anche quelle, e quindi non ha riconosciuto i marcatori di un contesto pubblico di tipo urbano.

E poi probabilmente il sistema ha un parametro di certezza che non era altissimo e quindi la penalizzazione è stata tutto sommato breve, giusto per rimarcare che il controllo viene esercitato e anche se potrebbe essere sbagliato nella valutazione specifica esso lavora per delle finalità condivisibili, quindi c’è poco da questionare. E in definitiva stiamo anche trattando di attività del tempo libero. Niente di serio e importante. Vero. Ma questi criteri sono adottati solo da software applicati alla moderazione dei passatempi o intervengono anche, e sempre più diffusamente, in tanti altri e più delicati ambiti della vita pubblica costituendo barriere e sistemi di controllo della comunicazione e dell’interazione sociale?

[top]