Human Technology: riprogettare la nostra esperienza digitale in chiave etica
Alfabetizzare gli utenti per difendersi dall’uso persuasivo delle piattaforme digitali è una priorità. Serve, però, un cambio di passo anche da parte di tecnici ed esperti di comunicazione
Immersi come siamo in quella che Giuseppe Riva ha definito interrealtà, una costante connessione tra mondo fisico e reti digitali, prestiamo poca attenzione alle conseguenze di ogni nostra azione all’interno di questa nuova e immersiva dimensione. E lo facciamo sempre, probabilmente anche ora, affidando all’algoritmo di Spotify la scelta della musica da ascoltare; lo faremo quando, comodamente sul divano, seguiremo i consigli di Netflix per la prossima serie tv da guardare. Ancora, quando progetteremo una nuova campagna di advertising per targettizzare e posizionare al meglio il brand e i contenuti del nostro cliente.
Il problema, sia chiaro, qui non è più l’algoritmo in sé. È l’intromissione delle tecnologie nella nostra vita sociale, politica ed economica e la diffusa impreparazione da parte degli utenti verso un uso sempre più psicosociale delle stesse.
Social network e piattaforme digitali devono il proprio successo proprio all’aver sfruttato appieno i meccanismi dell’influenza sociale e, purtroppo, non ne siamo ancora del tutto consapevoli. L’intento — ormai risaputo — è quello di tenerci “isolati” per un tempo sempre maggiore all’interno della stessa piattaforma per ricavarne profitti.
Ciò è stato possibile proprio a partire da alcune evidenze psicosociali. Siamo animali sociali come ha osservato lo psicologo sociale Stanislao Smiraglia e per questo essere sociali non è una scelta, ma «una necessità che deriva dalle forze biologiche».
Già qui si pone la prima questione. Il nostro essere sociali comporta responsabilità, perché — anche se inconsapevolmente — ogni volta che abbiamo un’interazione o vogliamo comunicare qualcosa mettiamo in atto processi e dinamiche proprie dell’influenza sociale. Così, come ci dice sempre Smiraglia, è il caso di estendere alle dinamiche odierne il primo degli assiomi della comunicazione elaborati da Watzlawick: oggi non è più solo impossibile non comunicare, ma è impossibile non influenzare. Avete mai riflettuto alla banale azione di condividere un post sulla vostra bacheca Facebook o quella ancora più semplice di lasciare un like?
In più, siamo naturalmente portati a valutare le informazioni in nostro possesso — per semplicità o necessità — in maniera veloce e automatica. Le euristiche hanno avuto una funzione adattativa per la nostra specie: gli esseri umani sono sopravvissuti alle evoluzioni proprio grazie a comportamenti intuitivi e decisioni euristiche. Queste valutazioni rapide, però, possono portare a scelte sistematicamente falsate: errori cognitivi (bias) che possono generare distorsioni dei nostri giudizi in particolare online, dove il sovraccarico informativo e le manipolazioni sono all’ordine del giorno.
Cosa fare allora?
Se chi ha progettato una piattaforma digitale lo ha fatto con l’intento di manipolare i nostri comportamenti è chiaro che l’alfabetizzazione degli utenti — vere cavie di questa trasformazione — deve diventare una priorità. Da utenti dobbiamo affinare le armi per difenderci dalla persuasione tossica (di alternative ne abbiamo, a partire da quella più drastica della disconnessione). Allo stesso modo è, però, necessario che chi si occupa di comunicazione sia in grado di comprendere appieno le conseguenze delle proprie scelte. Conoscere le basi dell’influenza sociale, le tecniche di persuasione, risulta ormai fondamentale se vogliamo immaginare un uso corretto della comunicazione digitale e, più, in generale lavorare per ri-progettare l’architettura stessa dell’informazione.
Da dove partire?
Proiettato per la prima volta nel gennaio del 2021, The Social Dilemma è un docufilm di Jeff Orlowski che indaga proprio sulle implicazioni etiche e sociali dell’utilizzo dei social media e delle principali tecniche di persuasione utilizzate. «Mai prima d’ora una manciata di progettisti tecnologici ha avuto un tale controllo sul modo in cui miliardi di noi pensano, agiscono e vivono le nostre vite» è il dilemma alla base del lavoro.
Tra le voci principali di questo racconto, quella di Tristan Harris, un passato come esperto di etica del design di Google e di tecniche di persuasione. Nel 2013 Harris condivise con i suoi colleghi di Google una presentazione destinata poi a diventare virale: A Call to Minimize Distraction and Respect Users’ Attention, un’analisi — ancora attuale — che riflette le preoccupazioni di molti progettisti sulla necessità di una maggiore responsabilità verso la crescente attenzione che viene richiesta agli utenti.
Quella presentazione gettò le basi per la nascita del Center for Humane Technology, di cui Harris è cofondatore e presidente. Obiettivo del movimento è quello di guidare il cambiamento verso l’uso di tecnologie umanizzate, riformulando gli effetti della tecnologia persuasiva alla base dell’attuale infrastruttura.
Il sito del CHT è un ottimo punto di partenza per il nostro lavoro di ri-progettazione. Una miniera di contenuti — approfondimenti, corsi, video, podcast — destinati sia agli utenti (dai genitori agli educatori) che ai decisori politici. CHT offre soprattutto strumenti a tecnologi ed esperti di comunicazione per lavorare insieme con l’obiettivo di allineare la tecnologia con l’umanità.
(articolo pubblicato su Ilas Magazine)