I “modelli oscuri” indirizzano molti utenti internet a prendere decisioni sbagliate

I “modelli oscuri” quasi certamente li avete conosciuti: sono i metodi subdoli in cui le società online t’inducono ad accettare cose cui normalmente non avresti mai dato il tuo consenso. Esempio classico è quello di un form che chiede se si desidera iscriversi a qualche programma o servizio, e la casella è già selezionata. Se non si deseleziona, si è iscritti.
Il disegno di legge bipartisan Detour introdotto al Congresso, proibirebbe ai siti web e alle piattaforme online (ciao, Facebook!) di utilizzare tali tattiche deliberatamente ingannevoli, permetterebbe alla Federal Trade Commission (FTC) di reprimere i siti che continuano a cercare di ingannare le persone.
FTC è un’agenzia indipendente del governo degli Stati Uniti, istituita nel 1914 dalla Federal Trade Commission Act. La sua missione principale è lo sviluppo della protezione dei consumatori e l’eliminazione e la prevenzione di pratiche commerciali anticoncorrenziali, come il monopolio coercitivo.
Il disegno di legge Detour (Riduzione delle esperienze ingannevoli per gli utenti online), se approvato, vieterebbe alle piattaforme di progettare, modificare o manipolare un’interfaccia utente con l’intento di impedire agli utenti di prendere decisioni istruite prima di consentire e dare accesso ai dati personali.
Il disegno di legge bipartisan Detour è nato da un’idea di due senatori statunitensi Mark Warner e Deb Fischer, sperano che la legislazione sarà inclusa come parte di ampie norme sulla privacy ora all’esame della Commissione Commercio del Senato. Mark Warner e Deb Fischer lo scorso martedì hanno ospitato esperti di tecnologia e privacy per un seminario al Campidoglio sui vari modi in cui i consumatori possono essere ingannati online.
Mark Warner ha detto:
«Le piattaforme di social media per anni hanno fatto affidamento su ogni sorta di trucchi e strumenti per convincere gli utenti a consegnare i propri dati personali senza comprendere esattamente quello che consegnavano.
Gli sviluppatori di siti web non sono stupidi, studiano molto la psicologia comportamentale per capire come gli utenti d’internet possono essere ingannati più facilmente.
La nostra proposta di legge è semplice, vogliamo che i consumatori siano in grado di fare scelte più informate su come e quando condividere le loro informazioni personali».
Deb Fischer ha aggiunto:
«E’ necessaria una maggior trasparenza su tutto ciò che circonda il clic di un pulsante “OK”, queste manipolate interfacce utente intenzionalmente limitano la comprensione, minano la scelta del consumatore; qualsiasi politica sulla privacy che comporti il consenso è indebolita dalla presenza di modelli oscuri».
La maggior parte degli utenti di Internet probabilmente è a conoscenza di questo tipo d’inganno ma non è molto preoccupato. Molti di noi danno per scontato che i siti web stanno cercando di separarci dalle nostre informazioni personali, ma quest’assedio perpetuo alla nostra privacy non deve essere l’impostazione predefinita. I consumatori non hanno motivo di accettare solo perché le aziende online sono alla disperata ricerca dei nostri dati.
Il fatto che ad arte per queste pratiche ci sia un termine come “modelli oscuri” ci dice che sono utilizzati metodi sempre più sofisticati.

Studio europeo sulla privacy e i modelli oscuri di Facebook e Google
Lo studio europeo dell’anno scorso ha scoperto che in particolare Facebook e Google sono diventati maestri nell’indirizzare le persone a fare scelte che non erano nel loro interesse. Gli autori dello studio hanno detto:
«L’intrusiva combinazione della privacy e l’uso di modelli oscuri spingono gli utenti di Facebook e Google, e in misura minore di Windows 10, verso le scelte meno rispettose della privacy a un livello che consideriamo non etico».
Gli autori dello studio hanno scoperto che le aziende hanno usato parole fuorvianti, hanno preso o lasciato scelte e opzioni di privacy nascoste per costringere gli utenti a rivelare il più possibile di se stessi.
I ricercatori hanno evidenziato:
«L’incentivo finanziario ha avuto la precedenza sul rispetto del diritto di scelta degli utenti quando i servizi digitali hanno utilizzato i modelli oscuri per spingere gli utenti a condividere più dati personali».
Otto gruppi di difesa dei consumatori statunitensi, tra cui il Consumer Watchdog di Santa Monica, in risposta allo studio hanno chiesto alla FTC di indagare sull’uso di modelli oscuri da parte delle aziende di Internet.
Carmen Balber, direttore esecutivo di Consumer Watchdog, ha detto:
«L’intero ecosistema online, in particolare quello commerciale, manipola gli utenti a fare ciò che le aziende vogliono. Ogni sito internet a un certo livello spinge le persone, dove le aziende vogliono che vadano, ma una cosa è provare a pilotare i clic per il tuo annuncio di scarpe, la gente se lo aspetta. Non si aspettano che un sito li indirizzi in modo intenzionalmente sbagliato».

Modelli oscuri come la pubblicità subliminale
E’ stato osservato che le autorità federali decenni fa hanno bloccato la pubblicità subliminale in TV (forma di pubblicità trasmessa velocemente, subdola e inconsapevole che il cervello percepisce ma al contempo non vede e non sente). Le autorità, tuttavia, devono ancora riconoscere l’effetto simile di modelli oscuri.
Carmen Balber ha aggiunto:
«E’ tempo che gli utenti online siano protetti da azioni intenzionalmente ingannevoli delle aziende internet. Le regole per la progettazione della privacy sono in ritardo».

La legge Detour garantirebbe le regole
Sarebbe illegale “progettare, modificare o manipolare un’interfaccia utente con lo scopo o l’effetto sostanziale di oscurare, sovvertire o compromettere l’autonomia dell’utente, il processo decisionale o la scelta di ottenere il consenso o i dati dell’utente”.
Il progetto di legge introdurrebbe una maggiore trasparenza nell’esperienza online richiedendo ai siti di rivelare “qualsiasi forma di ricerca comportamentale o psicologica” e “qualsiasi esperimento” che essi impiegano per manipolare il comportamento degli utenti.
Si creerebbe anche un comitato di revisione indipendente per supervisionare “qualsiasi ricerca comportamentale o psicologica, di qualsiasi scopo, condotta sugli utenti”.
Il linguaggio del genere sembrerebbe inverosimile se ciò non stesse realmente accadendo, come illustrato dallo studio europeo. E’ stato detto che molte delle tecniche attualmente utilizzate online si basano sui “campi dell’economia comportamentale e della psicologia”.
Lo studio in un solo esempio, ha mostrato come Facebook ha spinto gli utenti ad accettare le impostazioni di privacy desiderate dall’azienda, rendendo il pulsante “accetta” con un accattivante colore blu brillante, mentre l’opzione per modificare tali impostazioni era di un colore grigio opaco.
I ricercatori hanno detto:
«L’opzione che il fornitore di servizi vuole che gli utenti scelgano è stata deliberatamente resa più accattivante. Inoltre, “gli utenti che avevano fretta di utilizzare Facebook erano inclini a cliccare il pulsante blu e a completare il processo, il che si traduce nella quantità massima di raccolta e utilizzo dei dati».
I modelli oscuri possono anche assumere la forma di annunci mascherati da link di navigazione, costi nascosti che non appaiono fino all’ultimo passo di una transazione, o prove gratuite che si trasformano in pagamenti ricorrenti che sono molto difficili da cancellare. Alcuni potrebbero dire che queste tattiche sono troppo semplicistiche perché rappresentino una minaccia per i consumatori esperti di tecnologia. Lo stesso si potrebbe dire d’immagini sessuali nascoste negli annunci delle riviste, nei poster dei film e nelle pubblicità: famosa quella porno della Coca-Cola nascosta tra i cubetti di ghiaccio (vedi immagine, leggi la storia). Le aziende lo fanno perché da anni di ricerche sanno che funziona.
I modelli oscuri sono reali, continueranno a essere usati per influenzare il nostro comportamento online, sempre che non facciamo qualcosa al riguardo.

Avatar photo

About Pino Silvestri

Pino Silvestri, blogger per diletto, fondatore, autore di Virtualblognews, presente su Facebook e Twitter.
View all posts by Pino Silvestri →