Fai una donazione

Questo sito è autofinanziato. L'aumento dei costi ci costringe a chiedere un piccolo aiuto ai lettori. CHI NON HA O NON VUOLE USARE UNA CARTA DI CREDITO può comunque cliccare su "donate" e nella pagina successiva è presente (in alto) l'IBAN per un bonifico diretto________________________________

Amount
Print Friendly, PDF & Email

losguardo

Post-democrazia e Gamification ai tempi del “Dataismo”

Alcune considerazioni a partire dal caso Cambridge Analytica

di Lorenzo De Stefano

Una premessa

iStock uomo frammenti 620x372Il 17 marzo 2018 il Guardian, il New York Times e Channel Four hanno reso pubblici gli esiti di un’inchiesta durata circa un anno che ha scosso le fondamenta e la percezione comune del sistema politico statunitense e di quelli che sono ad oggi le principali tecnologie di informazione e di comunicazione: gli OSN1, segnatamente Facebook. Il caso riguardava Cambridge Analytica2, la società finita alla ribalta delle cronache mondiali perché rea di aver influenzato, attraverso un’opera di profiling e screening capillare su 50 milioni di utenti, le elezioni americane, il referendum sulla Brexit e non solo.

Sebbene per i ricercatori che studiano le dinamiche social e per le grosse aziende che detengono le chiavi di accesso e la capacità di gestione di quel meta-spazio, luogo-non luogo che è l’infosfera3, i meccanismi emersi non sono affatto qualcosa di nuovo, ma l’esito di un disegno di controllo biopolitico che ha coinvolto la società americana prima, e globale poi, sin dalla metà degli anni Ottanta4, il ‘caso Cambridge Analytica’ ha esplicitato i rischi e la vulnerabilità del nostro sistema democratico nell’epoca dei big data. La Datacrazia5 e la cultura algoritmica a essa sottesa, epifenomeno di quella che Colin Crouch ha definito Postdemocrazia6 inaugura una nuova frontiera per l’analisi filosofica, politica e sociologica. L’avvento delle nuove tecnologie digitali della comunicazione (ICT) ha posto fine al verticalismo ontologico dei mass media di seconda e terza ondata del secolo scorso, la radio e la televisione, per inaugurare una nuova forma di diffusione disintermediata della notizia in cui ciascun utente è un prosumer7, a un tempo fruitore e produttore di informazione sotto forma di dati e metadati. Tale complesso è comunemente identificato dal termine Big data.

Secondo Luciano Floridi il termine rimane tuttavia ambiguo8, la National Science Foundation (NSF) ha caratterizzato l’espressione come «ampi, diversi, longitudinali, e/o distribuiti set di dati generati da strumenti, sensori, transazioni Internet, email, video, numero di click e/o altre fonti digitali disponibili oggi e nel futuro»9, in generale, possiamo dire che l’espressione connoti generalmente flussi di dati i cui Volume, Velocity, Variety appaiono smisurati10 e calcolabili in zettabyte (1021 byte). Come ci ricorda Günther Anders, le tecnologie non sono mai neutrali11, ma latrici di un imperativo categorico recondito che, nel caso dell’attuale Dataismo, chiamo ‘ideologia algoritmica’, ossia l’ingenua fiducia che la precisione dell’algoritmo e del dato siano di per sé fonte di verità epistemica. Le modalità dell’estrazione e raccolta dei dati, oltre ad implicare la caratteristica riduzione ontologica che accompagna ogni datificazione, nascondono strategie di neuromarketing fortemente influenzate dalle teorie dell’economia comportamentale e della psicologia cognitiva di scuola americana. La qual cosa, se associata a un ottimismo tecnologico riduzionista, che vede nell’accuratezza e completezza del dato il suo paradigma epistemico12, mette in evidenza il carattere ideologico post-positivista del processo. I Big data registrano e utilizzano una moltitudine di comportamenti pulsionali e affettivi da parte dei fruitori delle piattaforme, segnando, di fatto, il passaggio dall’economia dell’attenzione all’economia dell’emozione13. Sentimenti e affetti sono un fattore essenziale del processo di estrazione e valutazione biocognitiva, al punto da poter parlare a tutti gli effetti di web affettivo: sono i sentimenti e le passioni gli ingranaggi fondamentali della megamacchina digitale, che agisce come vero e proprio dispositivo produttore di soggettività14.

La nuova frontiera del progresso scientifico, economico-sociale e del controllo biopolitico è indissolubilmente dipendente dal data mining15, dall’attività di lettura e catalogazione del dato estratto e dal controllo delle piattaforme su cui tali dati vengono oggettivati. Da questo punto di vista, le cosiddette Big Four Tech Companies – Google, Apple, Facebook, Amazon –­, il cui impero economico nel 2020 si prevede diverrà la prima potenza economica mondiale, costituiscono, in quanto detentori delle piattaforme in cui la nostra attività emozionale è estrinsecata, il bacino in cui la sovranità post-democratica è confluita nell’epoca del dataismo; ciò implica naturalmente il trasferimento della sovranità dal pubblico e dagli stati nazionali a meta-istanze private, il cui carattere globale e transnazionale rende difficile una regolamentazione giuridica unitaria16. Le logiche che regolano il dibattito pubblico sono appannaggio di aziende private e se le democrazie riusciranno a sopravvivere a tale privatizzazione dell’opinione è una questione che rimane naturalmente aperta, e che potremmo caratterizzare senza mezze misure come il principale rischio politico del secolo. Quel che è certo è che ci troviamo dinanzi a una svolta epocale già preventivata da Marshall McLuhan negli anni Sessanta e che rientra a pieno titolo negli effetti di quella che Ulrich Beck ha definito «società del rischio» che prende forma come «costruzione digitale del mondo»17. In una prospettiva catastrofista, la forma del rischio propria della metamorfosi digitale del mondo e dello spazio pubblico assume i crismi del controllo egemonico globale dei dati strutturante il Panottico digitale18, dove, in nome della trasparenza, diviene obsoleta ogni linea di confine tra il pubblico e il privato in una sorta di disvelatezza sovraliminale. Catastrofe peraltro atipica in quanto non fisica, poiché avviene al di fuori dello spazio e del tempo ‘reali’, ma ha in essi la sua riflessione ex post nella misura in cui i media digitali producono nuove forme di soggettivazione e di prassi. Il rischio digitale coinvolge direttamente la libertà e per tal motivo non è l’unica tipologia di rischio della società contemporanea19, ma sicuramente la più sottile e inavvertita, che lede le fondamenta stesse della vita sociale, del privato, del diritto e degli stessi Stati-nazione. La digitalizzazione, di fatti, come declinazione del virtuale, sebbene veda come primo momento generativo la trasposizione e l’oggettivazione del fattore umano nel network, che comporta la riduzione della nuda vita in data, acquista la sua determinazione catastrofica nel momento in cui il rischio di tale trasposizione non è avvertito come tale, nel momento in cui la nostra privacy, la nostra “anima elettrica” è svenduta20 ad aziende private che la usano per fini economici e politici. Questo dislivello prometeico21 tra la nostra azione e la capacità riflessiva di immaginarne gli esiti su vasta scala, che corrisponde concretamente alla nostra ignoranza circa l’entità, l’utilizzo e la proprietà dei dati che produciamo quotidianamente, è la premessa filosofica che ci aiuta a comprendere in che misura lo scandalo C.A. è paradigmatico per una analisi del rischio nella società post-democratica: «la vera catastrofe si ha quando la catastrofe scompare e diventa invisibile: è allora che il controllo si avvicina alla perfezione»22.

 

1. Il caso clinico

Tale rischio si è concretamente materializzato attraverso una serie di scandali paradigmatici, di cui il più celebre ha coinvolto la NSA tramite il programma di sorveglianza elettronica PRISM che le permetteva di accedere alla posta elettronica, ricerche web e altro traffico Internet dei cittadini americani e il più recente caso C.A. al centro della nostra trattazione. È importante sottolineare come entrambi siano venuti alla luce grazie a iniziative di singoli soggetti interni al sistema, mossi da evidenti esigenze di ordine etico o morale, quasi a riprova che la coscienza del singolo è l’ultimo nucleo di resistenza antropica al potere totalitario della megamacchina23: un consulente privato della NSA – Edward Snowden – e, nel caso C.A., un programmatore –­ Christopher Wylie –. Se da un lato, infatti, il totalitarismo tecnico della trasparenza digitale funziona perché agisce a livello sovraliminale come forma di controllo estremamente rarefatta, è proprio il suo carattere globale, extra-statale a renderlo estremamente vulnerabile all’iniziativa del singolo, a patto che, come nel caso del fenomeno dello hacking, questi sia in qualche modo interno al sistema. Quanto più un sistema è complesso e numerosi sono gli attori e i dispositivi coinvolti, maggiore sarà la probabilità di fare breccia24. Per inquadrare la questione empiricamente occorre ora fare un accenno alla vicenda C.A. anche a costo di sfociare per un attimo nel giornalismo.

C.A. è stata fondata nel 2013 da Robert Mercer, un imprenditore conservatore statunitense, finanziatore del giornale Breithart News, diretto da Steve Bannon, consigliere e Campaign manager di Trump alle ultime presidenziali americane. È un’azienda specializzata nel KDD25 e nel data mining, nel raccogliere le interazioni social degli utenti come Like su Facebook, entità e luogo dei commenti, cerchia di amici e così via. Tale complesso di dati non-strutturati e Social Media Data26 sono per natura i più difficili da analizzare, ma proprio per questo i più preziosi, perché forniscono le chiavi d’accesso alla sfera psichica ed emozionale degli utenti; mediante le procedure algoritmiche di profiling, che si avvalgono di alcune tecniche psicometriche, viene strutturato il profilo dell’utente, rispecchiante con buona approssimazione le caratteristiche e la personalità: quanto maggiori sono le interazioni, tanto più preciso sarà il profilo psicometrico del prosumer. A ciò vanno aggiunti altri dati provenienti dal cosiddetto Information brokering, una pratica risalente agli anni Settanta, mutata parallelamente all’irrompere del digital turn, che si occupa di offrire un servizio di intermediazione, raccolta, interpretazione e organizzazione di informazioni per aziende e privati.

Il microtargeting comportamentale messo in piedi da C.A., a differenza delle tecniche di targeting commerciale di Amazon o Google27, identifica non soltanto il semplice gusto dell’utente, ma emozioni, opinioni, visioni del mondo. Queste operazioni sono possibili grazie ad un algoritmo e grazie a delle procedure di Big Data Mining sviluppate da Micael Kosinski, psicologo e data scientist della Cambridge University. Kosinski, insieme a David Stillwell, è il responsabile del mypersonality project, una pagina28 nata inizialmente come app di Facebook, finalizzata alla ricerca psicologica che forniva un test di personalità gratuito online agli utenti, attraverso la somministrazione di un questionario. Il caso è emblematico per comprendere il funzionamento del profiling psicologico: mypersonality, in cambio dello screening della personalità degli utenti, immagazzina dati, a quanto risulta anonimi. In questo modo, immense moli di informazioni sono raccolte, analizzate e messe a disposizione della ricerca scientifica degli stessi ideatori o di parti terze. I due ricercatori declinano ogni possibile coinvolgimento con la vicenda C.A., trattandosi di una app che lavora previo consenso informato dell’utente – accordato tramite una finestra pop-up di Facebook – e finalizzata alla diffusione di dati per la ricerca psicologica a scopo non commerciale. Tralasciando per un attimo la questione se in un sistema capitalistico il binomio tra tecnologia e scienza possa essere neutrale e davvero scevro da interessi commerciali, quel che è certo è che dal 2018 mypersonality, in seguito alla vicenda C.A., smette di condividere i propri dati con parti terze. Nel 2014 i ricercatori furono avvicinati da Alexander Kogan, un altro ricercatore di Cambridge, che offrì loro di condividere i dati del loro progetto con SCL/ Cambridge Analytica, ma i due, già ben coscienti della possibilità di individuare  caratteristiche intime dall’analisi dei Like29 e del conseguente rischio per la privacy, opposero un netto rifiuto. Ciò non impedì a Kogan di sviluppare, sul modello di mypersonality, una sua app thisisyourdigitallife, sfruttando le ricerche e le procedure sviluppate da Kosinski30 sul profiling e sulla gestione delle digital footprints. Ancora una volta, la piattaforma scelta fu quella di Zuckerberg, habitat privilegiato del Platform capitalism. Gli OSN, proprio per la loro gratuità, sono dispositivi perfetti per l’estrazione gratuita di dati: post su Facebook, foto, età, sesso e perfino lista di amici venivano direttamente girati a C.A. Circa 270 mila persone si iscrissero alla app di Kogan, condividendo dati personali e della loro cerchia di amici virtuali per un ammontare complessivo di circa cinquanta milioni di utenti. Sebbene i rischi per la privacy fossero già evidenti a questo stadio, la app si muoveva ancora nell’ambito della liceità, visto che Facebook avallava in quell’epoca tali pratiche; i termini di uso furono violati nel momento in cui fu effettuata la cessione dei database a terzi, scilicet: C.A. Tuttavia, in questo caso, la sanzione e la sospensione della pratica avvennero molto tardivamente, per l’esattezza il 16 marzo 2018, il giorno prima che le dichiarazioni di Wylie fossero pubblicate da The Guardian; ciò farebbe presupporre una connivenza della società di Zuckerberg.

Ma come agiva C.A. e quali sono le vere implicazioni politiche della vicenda e che cosa c’entrano con la politica delle passioni?

Nel 2016 Trump si rivolse a C.A. per la gestione della raccolta dati per la campagna elettorale. I contorni della vicenda sono ancora da delineare, tuttavia, ciò che emerge dall’inchiesta e dai filmati di The Guardian è che le linee di azione dell’azienda erano due: da un lato la diffusione di false notizie sui principali avversari politici attraverso bot e fake account; dall’altro il micro targeting modulato su singoli gruppi di elettorato polarizzato. Tali operazioni hanno permesso di definire un’offerta politica modulata sul profilo psicometrico degli elettori. Inoltre, secondo le affermazioni di Alexander Nix, l’A.D. di C.A., l’azienda era intervenuta pesantemente anche in altre votazioni come quelle keniote, vinte da Uhuru Kenyatta31, e nella Brexit. L’utilizzo del data mining per la manipolazione delle elezioni politiche è la nuova frontiera della propaganda ai tempi della infosfera.

Conformemente a quanto sostenuto da McLuhan, nuove forme di media implicano nuovi messaggi, nuove strategie e dispositivi politici, nuova soggettivazione, una nuova società di massa, ma soprattutto nuove dinamiche di potere. Il data mining si fonde con la comunicazione strategica e la propaganda politica, creando un intreccio assai difficile da spezzare proprio per il suo carattere di mondo fornito a domicilio. «It is no good fighting an election campaign on the facts, because actually it is all about emotion» sostiene Mark Turnbull, il managing director della political division di C.A nelle registrazioni trafugate delle trafugate Channel 432. In questa nuova frontiera l’emozione ha un valore paradigmatico, è il materiale grezzo da cui viene estratto il valore e su cui insistono le strategie di fabbricazione del consenso. L’emozione diviene a un tempo il valore d’uso fondamentale per la propaganda politica e il valore di scambio del Platform capitalism; i Big Emotional Data si attestano così come ultima forma della reificazione dell’umano e dell’asservimento dell’uomo alla macchina.

 

2. Terra incognita: confessione, gamificazione e psychological targeting

Il clamore suscitato intorno alla parola post-verità, alimentato anche vicende elettorali sopracitate, ha avuto il merito di porre l’accento sia sul ruolo dell’emozione nella formazione dell’opinione pubblica33, sia sul processo di precomprensione ontica della verità che ‘innanzitutto e per lo più’ domina la nostra contemporaneità. Lo emotional turn, ovvero il passaggio da una società dell’attenzione a una dell’emozione, l’esaltazione del sentimento rispetto alla ragione è, come si sa, un leitmotiv nella storia del pensiero occidentale, ogni razionalismo, infatti, ha sempre avuto la sua controparte scettica, relativista o vitalistica. Già Platone, nel Sofista, definiva la tecnica eristica come quella forma di sapere doxastico mirante alla persuasione (e all’accumulo di ricchezze) attraverso la aisthesis piuttosto che all’episteme34; Spinoza, ancora, vedeva nella passione un importante elemento gnoseologico, come avrò modo di chiarire in seguito, così come, in modo diverso, Schopenhauer e Nietzsche35. Tuttavia oggi l’analisi filosofica si trova a dover fare i conti con un elemento nuovo: la digitalizzazione del mondo, la terza grande rivoluzione mediatica dopo l’invenzione della scrittura e della stampa. L’uomo è animale tecnico in un senso biunivoco: da un lato media il suo rapporto con il mondo e con l’altro mediante tecniche e dispositivi, dall’altro sono i dispositivi stessi a determinare la sua morphé storica; l’anthropos, ente privo di un’essenza determinata, è a un tempo il suo progetto e il progetto del suo progetto.

La determinazione ontica stessa della verità, il sistema di credenze e valori socialmente accettati e persino il valore sociale dell’emozione sono, pertanto, la risultante, da un lato, di determinate invariabili sintattico-linguistiche, biologiche e fisiologiche, dall’altro di a-priori storico-culturali, sociali e di rivoluzioni tecnologiche che influenzano lo sviluppo del patrimonio emotivo36, (si pensi ad esempio al differente valore del lutto attribuito nelle varie culture o, per fare un esempio in linea con il saggio, a come una campagna elettorale con la stessa agenda possa incontrare più o meno favore in paesi differenti). Se le pratiche influenzano la vita emotiva, le nuove ICT e gli OSN veicolano e stimolano una nuova affettività e in tal senso la post-verità può esser considerata un evento epocale proprio perché indissolubilmente legata a questa nuova frontiera della tecnica.

Il tentativo di controllo delle coscienze passa oggi per un indottrinamento e una persuasione emotiva di tipo nuovo; il totalitarismo ‘morbido’ dell’emozione è perpetrato attraverso la consegna di un mondo a domicilio familiarizzato, pre-digerito e adattato ergonomicamente al profilo dell’utente, grazie all’uso delle piattaforme OSN e di tecniche quali il microtargeting, il profiling e la gamification. La trasposizione digitale del nostro essere nel mondo introduce una deiezione del tutto particolare in quanto il Man è il riverbero narcisistico dello stesso sentire irriflesso concretizzato in bolle di filtro generate da algoritmi. L’algoritmo, di fatti, è uno strumento banale37 in senso arendtiano, in quanto semplice esecutore di ordini e procedure: «per definizione algoritmo è un insieme di regole e procedure matematiche volto a trasformare un dato input in uno specifico output»38. Nel caso delle piattaforme OSN, e quindi nel caso di C.A., input sono i Big Data estratti dall’attività degli utenti – le risposte ai test della personalità –, mentre l’output sono i dati processati e personalizzati che andranno a strutturare l’esperienza digitale dell’utente, la sua bolla di filtro, la sua echo chamber39.

Ciò che invece non è affatto neutrale sono i fini e il dispositivo generale di cui l’algoritmo è un ingranaggio. A nostro avviso, il caso C.A. ha evidenziato tre modalità di azione coatta nel dispositivo input-output, che si radicano nella costituzione antropologica stessa dell’uomo: per quanto riguarda il meccanismo di input, ovvero la raccolta dati, le piattaforme fanno leva su due pratiche, la confessione e la gamificazione o ludicizzazione, che hanno il loro radicamento antropologico nella confessio cristiana e nel gioco; l’output è invece regolato dallo psychological targeting, un dispositivo che usa i dati ottenuti tramite le strategie di input e li elabora per una strategia di persuasione e controllo delle masse.

I social network, in quanto macchine ermeneutiche40, traspongono nel digitale la pratica della confessione; sono dispositivi confessionali che interpretano le interazioni degli utenti e guidano in un processo di autoanalisi riflessiva. Da questo punto di vista, sono «tecnologie del sé», di esposizione e riflessione della propria interiorità. Secondo Michel Foucault, la confessio si compone di due momenti distinti la exagoreusis41 e la exomologesis, come descritto nelle lezioni raccolte nel volume Sull’origine dell’ermeneutica del sé42. Nell’opera di confessione quotidiana l’utente social mostra i propri pensieri al maestro spirituale – in questo caso la piattaforma­ –­ e si rende trasparente43 a un tempo ai suoi amici/followers e a quelle istanze che governano la piattaforma stessa. In tale rituale di confessione, come nel caso di mypersonality, l’utente si sottomette a tecniche di dominio predisposte dal default power, ovvero dai Termini di Servizio e Utilizzo della piattaforma OSN o della app 44. Una volta affidati i nostri pensieri alla piattaforma, li cediamo a un privato che ci guida senza esporsi in questa continua pratica di esposizione e self branding. È su questi dati che si inserisce l’opera di razionalizzazione dell’algoritmo. Secondo Ippolita, di fatti, «le interfacce grafiche sono strutturate per consentire un certo tipo di interazione in maniera che diventino leggibili dalle macchine»45. Come delineato da Foucault, qui si instaura il secondo momento della confessio, la exomologesis, la publicatio sui, che espone l’utente alla piazza virtuale della propria echo chamber, o più appropriatamente ego chamber. L’esposizione pubblica, e il conseguente apprezzamento sociale che ne deriva, provoca un meccanismo di selezione dei comportamenti in base alla risposta ricevuta, finalizzato a massimizzare il livello di esposizione/approvazione, attraverso l’azione sulla situazione emotiva (Stimmung) dell’utente. Così come il Dasein heideggeriano, l’utente social è sempre emotivamente situato: desiderio, tristezza, gioia, paura, sono passioni attivamente eccitate dalla nostra pratica social; il Like, ad esempio, è la cifra della propria riuscita e desiderabilità sociale, stimola la produzione di dopamina, generando una sorta di dipendenza emotiva dall’apparato.

La macchina social in questo modo riceve e transcodifica le informazioni avute dall’utente, in un certo senso ne reifica la sfera affettiva, la rende dato, quantità, valore. Ed è qui che avviene la exomologesis, la publicatio sui, che è una controparte della exagoreusis. Foucault riferisce, riprendendo Tertulliano e Girolamo, che tale pratica era una procedura penitenziale volta alla rinascita del credente nella comunità attraverso l’esposizione del proprio corpo penitente46. Ma sebbene la exomologesis antica avesse il fine di «manifestare il proprio dolore, mostrare la propria vergogna, rendere visibile la propria umiltà ed esibire la propria modestia»47 attraverso la liberazione dal proprio corpo per l’accesso a una nuova vita spirituale, la pratica di confessione ed esposizione nei nuovi OSN vede una drammatizzazione ed esaltazione della propria corporeità per ottenere il feedback emozionale. Ciò che resta tuttavia inalterato è l’impianto sacrificale: così come il penitente sacrificava la propria corporalità, nei network commerciali gli utenti sacrificano la propria immagine, la propria privacy, la propria sfera emotiva, la loro stessa corporeità alla divinità panottica: «cediamo noi stessi in cambio della possibilità di personalizzarci attraverso i loro strumenti»48. Il prosumer è quindi vittima consacrata e, in cambio dell’esposizione social, cede gratuitamente i propri dati che costituiscono il materiale nudo, il fondo (Bestand) per la valorizzazione e l’accumulazione del Plattaform Capitalism, e per i dispositivi di controllo degli attori del totalitarismo della trasparenza.

Gli utenti che hanno usufruito della piattaforma thisisyourdigitallife, in cambio della interpretazione dei propri tratti psicologici, hanno sacrificato i loro stessi dati a un sistema di controllo in grado di influenzare la vita democratica del proprio paese. Il sacrificio alla macchina implica, pertanto, un doppio livello di coinvolgimento: uno esplicito e visibile, ovvero il nostro profiling, la nostra esposizione immediatamente visibile sulla piattaforma ­– nel caso di thisisyourdigitallife il proprio profilo psicologico –, l’altro implicito e inconscio, visibile soltanto a chi detiene le chiavi d’accesso e di lettura dei Big Social Data. Noi cittadini del Web 2.0 non abbiamo il controllo dell’immagine reificata, in quanto non abbiamo tecniche e metodi per strutturare i dati che le piattaforme acquisiscono49. Da questo punto di vista, nasce un dislivello prometeico tra le nostre oggettivazioni sul web e la possibilità di immaginare l’esito della nostra attività, o più direttamente, di immaginare nelle mani di quali istanze di potere andranno queste oggettivazioni. Come C.A. ha chiaramente dimostrato, è esattamente su questo punto che insiste il rischio di dominio totalitario attraverso un controllo implicito di coscienze e sentimenti. Tali dinamiche di potere sfruttano il magnetismo implicito alle interazioni social e all’esperienza onlife50 in cui il confine tra esistenza reale ed esperienza digitale è completamente obliterato.

Gli OSN sono, di fatti, pervasi da una componente ludica che li rende particolarmente attraenti. La gamificazione, ossia l’applicazione di elementi tipici del gioco in ambienti non ludici, è la seconda criticità dell’esperienza social emergente dallo scandalo C.A. Se torniamo per un attimo al caso, il meccanismo di adescamento degli utenti, la base dati e la materia prima per le operazioni di data mining di C.A. era proprio una app che integrava elementi tipici del gioco in un contesto non ludico. È noto oramai il proliferare su Facebook e Instagram di app per trovare il partner ideale o per sapere chi si era nella vita precedente, giochi volti alla raccolta dati e alla somministrazione di banner pubblicitari; ebbene, ognuna di queste comporta la cessione dei dati da parte dell’utilizzatore.

La gamificazione è un insieme di pratiche applicato agli ambiti più diversi per aumentare i livelli di prestazione degli utenti di un sistema in base a parametri espliciti (punteggi e altro) e impliciti (il comportamento da implementare). Viene utilizzata in maniera pervasiva nella progettazione e realizzazione di piattaforme digitali.51

L’obiettivo principale di questa pratica è catturare l’attenzione dell’utente in un sistema cibernetico eterodiretto allo scopo di assolvere all’obiettivo preposto dal sistema stesso. Tale forma di coercizione morbida è volta stimolare esperienze di flusso attraverso il ricorso a tecniche di condizionamento operante, scoperte dallo psicologo comportamentista B. F. Skinner all’inizio del secolo scorso. Le procedure sono volte a stimolare l’attenzione e l’emotività dell’utente nella ripetizione rituale di un’azione arrecante piacere: in questa prospettiva, il confine tra apprendimento e addestramento è assai labile. La gamificazione agisce secondo meccanismi di rinforzo frutto di una normatività positiva, in cui la gratificazione avviene ogni volta che un determinato compito è stato assolto e una regola rispettata. Lo stato di eccitamento emozionale, innescato dall’effetto del dispositivo sul sistema neurologico dell’utente, è la metodologia di coercizione morbida che domina le dinamiche social. All’eccitamento emozionale si unisce il tentativo di creare la cosiddetta esperienza di flusso52. Lo sfruttamento di tale processo rientra in pedagogia in un più generale contesto di ergonomia cognitiva: le esperienze di flusso, di fatti, sono adoperate nelle strategie di cooperative learning o nella pedagogia aziendale53; in questo caso, lo sforzo computazionale e intellettuale è minimo, perché si tende ad agire in maniera automatica in quanto a venire coinvolta è la memoria procedurale. L’uso continuativo di un medium digitale gamificato, come ad esempio Facebook, dove le interfacce sono progettate per essere quanto mai intuitive, ne favorisce un utilizzo automatico o semi-automatico54, che ostacola all’utente medio un controllo cosciente delle sue azioni e delle sue emozioni. L’immersione profonda nelle realtà virtuali che penetrano il nostro corpo attraverso il medium visivo55, con il conseguente passaggio da un registro espositivo lineare come quello della scrittura alla comunicazione per immagini – i cosiddetti meme –, è la modalità in cui il social influenza e modella la nostra vita emotiva. La diffusione delle fake news, fenomeno caratteristico della post-verità, può essere spiegata proprio con tale carattere domiciliare e gamificato della esperienza social; l’irretimento nel virtuale sancisce un’evidente difficoltà nel discernimento di una fonte più o meno attendibile, a cui va aggiunto il fatto che le procedure di profiling che regolano reconditamente il funzionamento delle piattaforme strutturano un mondo su misura dell’utente, in conformità della sua struttura emotiva. Questo aspetto interessa soprattutto le procedure algoritmiche di output; se confessione e gamificazione sono il modo in cui gli OSN ‘catturano’ i dati dei prosumer, lo psicological targeting è la procedura mediante cui tali dati sono organizzati e strutturati per la edificazione della bolla in cui l’utente è irretito.

Kosinsky e Sillwell, i creatori di mypersonality.org, in un articolo dall’eloquente titolo Psychological targeting as an effective approach to digital mass persuasion, delineano i tratti fondamentali di tale procedura. Ne riprendiamo alcuni stralci significativi:

Le persone sono esposte alla comunicazione persuasiva in molti contesti differenti: Governi, aziende e partiti politici utilizzano appelli persuasivi per incoraggiare le persone a mangiare in maniera più sana, ad acquistare un determinato prodotto o a votare uno specifico candidato. Studi di laboratorio dimostrano che tali appelli persuasivi sono più efficaci nell’influenzare comportamenti quando sono confezionati su misura sulle caratteristiche psicologiche individuali. Ciò nonostante, l’indagine sulla persuasione psicologica su larga scala è stata intralciata dalla natura della perizia psicologica incentrata su questionari. Recenti ricerche, tuttavia, mostrano che le caratteristiche psicologiche delle persone possono essere predette accuratamente a partire dalle loro impronte digitali, come i Like su Facebook o i Tweets. Traendo benefici da questa forma di perizia psicologia a partire dalle impronte digitali, noi testiamo gli effetti della persuasione psicologica sul comportamento attivo delle persone in un modello ecologico valido […]. Gli appelli persuasivi associati al livello di estroversione o apertura all’esperienza delle persone è risultato avere un incremento del 40% dei click e di oltre il 50% degli acquisti rispetto alla loro controparte non associata. Le nostre scoperte suggeriscono che l’applicazione di psychological targeting rende possibile influenzare il comportamento di vasti gruppi di persone attraverso il confezionamento su misura di appelli persuasivi in base ai bisogni psicologici del pubblico di riferimento. Discutiamo sia i benefici potenziali di tale metodo nell’aiutare gli individui a prendere decisioni migliori e i potenziali tranelli in riferimento alla manipolazione e alla privacy.56

La chiarezza tipicamente scientifica del testo fa emergere i seguenti aspetti filosoficamente rilevanti:

  1. I nuovi OSN, a differenza delle precedenti procedure psicometriche, permettono un targeting psicologico più efficace, perché modulato sulla attività social dell’individuo, che appare disintermediata, evidente e, nel caso dell’esperienza gamificata, semi-automatica. Se nella somministrazione dei questionari l’utente può coscientemente mentire o condurre il test con scarsa attenzione, i Big Social Data sono più attendibili, perché fotografano un’interazione diretta.
  2. È possibile predire attraverso gli algoritmi il comportamento degli utenti.
  3. Il desiderio, le passioni e l’opinione pubblica sono un qualcosa di producibile e modellabile algoritmicamente, soprattutto nella misura in cui tale modellamento non visibile, ma avviene sopra le nostre teste.
  4. È possibile impostare efficacemente e scientificamente una campagna elettorale o una campagna pubblicitaria, a partire dalla mappatura delle interazioni social.

 

3. Conclusioni: verso un totalitarismo delle passioni

Il caso C.A. ha mostrato come il digital turn può essere un potenziale nemico della società aperta e della convivenza democratica, in quanto pervaso da istanze di potere che minano la trasparenza dei meccanismi politici e dei processi decisionali. Il nuovo totalitarismo della trasparenza si afferma proprio attraverso il controllo delle masse e dell’opinione pubblica per mezzo del Web 2.0.

Secondo Hannah Arendt, ogni totalitarismo ha come precondizione un determinato tipo di massa:

[…] i movimenti totalitari trovano un terreno fertile per il loro sviluppo dovunque ci sono le masse che per una ragione o per l’altra si sentono spinte all’organizzazione politica, pur non essendo tenute unite da un interesse comune e mancando di una specifica coscienza classista, incline a proporsi obiettivi ben definiti, limitati e conseguibili. Il termine “massa” si riferisce soltanto a gruppi che, per l’entità numerica o per indifferenza verso gli affari pubblici o per entrambe le ragioni, non possono inserirsi in un’organizzazione basata sulla comunanza di interessi, in un partito politico, in un’amministrazione locale, in un’associazione professionale o in un sindacato. Potenzialmente, essa esiste in ogni paese e forma la maggioranza della folta schiera di persone politicamente neutrali che non aderiscono mai a un partito e fanno fatica a recarsi alle urne.57

Il totalitarismo 2.0 ha nella folta schiera di prosumer e di eremiti di massa irretiti nella dimensione onlife dell’esistenza la sua massa tipica. È una massa che non vede più nelle grandi adunate del secolo scorso il suo luogo di raccolta, ma la pagina Facebook del politico di turno, Istagram, o Google, esposta alla attività di profilazione delle internet companies.

Ciò che tuttavia rimane invariato è il ruolo preponderante della passione nella strutturazione del consenso, e questo proprio perché la passione rientra in una particolare economia del vivente che ha una propria struttura teleologica, che come tale, è al di là del bene e del male ed è funzionale alla strutturazione della dimensione biologica e sociale dell’uomo. Tale vis plastica e attiva delle passioni è stata avvertita con chiarezza da Spinoza:

Nulla avviene nella natura che si possa attribuire a un suo vizio, giacché la natura è sempre la medesima, e la sua virtù e potenza di agire sono dappertutto una sola e medesima […]. Gli affetti, dunque dell’odio, dell’ira dell’invidia ecc., considerati in sé seguono dalla medesima necessità e dalla medesima virtù della natura da cui seguono le altre cose singole […] (Etica III, Pref.).58

Le passioni, peraltro, rientrano in una determinata economia del vivente che vuole perseverare nella sua esistenza; l’uomo non sfugge a tale dinamica, ma anzi è conscio di questo sforzo stesso in quanto dotato di Mente59. Le passioni governate dalla Mente implementano la potenza di agire del corpo, sono rivolte a quegli oggetti che risultano propedeutici al permanere nell’essere.

Per Spinoza, pertanto, tra cause esterne, Mente e passioni non c’è una soluzione di continuità, ad essere decisivo, come già per Aristotele, è l’equilibrio tra esse. La schiavitù dalle passioni implica la schiavitù del bisogno dell’oggetto esterno la cui importanza è registrata dalle emozioni60. L’interna coerenza del nesso non ne elide però il carattere conflittuale, che è accresciuto nella misura in cui l’immaginazione sostituisce la conoscenza chiara e distinta delle cose. Quanto più l’immaginazione è dispotica, tanto maggiore sarà la schiavitù dalla passione. «Spinoza non oppone quindi la realtà dell’immaginario, ma la realtà dell’immaginario alla realtà concepita dalla conoscenza razionale o da quella intuitiva»61. Non appena vengono concepite idee adeguate, l’irretimento nell’’immagine viene indebolito. La ragione, pertanto, con la sua opera di comprensione delle cause libera l’uomo dalla schiavitù della passione, per poi, attraverso l’amor intellectualis, assurgere al livello della scienza intuitiva. A tal proposito scrive Bodei:

«questo amore non va infatti inteso né in senso emotivo, né come mera armonia, dolcezza o pace (come ‘pappa del cuore’), quanto piuttosto come una struttura emotivo-cognitiva insieme, conoscenza che muove e movimento che conosce, struttura aperta, eversiva e cicatrizzante insieme, dotata di peculiari modalità per comprendere e operare, spinozianamente, delle transitiones, per sbloccare cioè i conflitti mediante soluzioni innovative che incrementino la razionalità senza mutilare la potenza inventiva del desiderio».62

La cosa più rilevante di tutto questo discorso è che la conoscenza in quanto amor intellectualis porta alla comprensione della componente affettiva e di conseguenza al controllo sulle transitiones per dirimere il conflitto attraverso un’armonizzazione tra la potenza propulsiva del desiderio e la razionalità. Ciò per Spinoza è il vessillo della più alta libertà, che non è soppressione della passione, ma controllo e consapevolezza della stessa; libertà è conoscenza dei processi.

Ritornando al nostro caso, la conoscenza dei meccanismi che regolano il web 2.0, le sue dinamiche, la consapevolezza di come piattaforme quali Facebook agiscano attraverso la gamificazione e lo psychological targeting sulle passioni, ha già di per sé una potente carica emancipativa. Il libero uso, privato e pubblico, della ragione e della conoscenza è l’unica possibilità di adattamento alla società post-fattica. Qui ne va precisamente dell’utilizzo delle nuove ICT come mezzo per il potenziamento dell’intelligenza e non del suo scacco, o, che è lo stesso, del mantenimento di un ruolo centrale della intelligenza organica su quella inorganica – la artificial intelligence­– come Mente algoritmica; come suggerisce ancora il filosofo olandese, «un affetto che è passione cessa di essere passione appena ci formiamo di esso un’idea chiara e distinta» (Etica, V, Prop. 3). Un affetto, dunque, è tanto più in nostro potere tanto più è noto, e tanto meno ne patisce la mente, tanto più è noto. Per essere abitatore libero della infosfera e tentare di sfuggire ai dispositivi di controllo panottici è fondamentale una conoscenza, una fenomenologia e una genealogia dei dispositivi e dei processi. La possibilità di mettere al riparo la convivenza democratica dalle istanze che intendono relegarla a mero simulacro, che intendono relegare la sfera privata ed emotiva ad appiglio per il controllo biopolitico della trasparenza, passa necessariamente per una nuova epifania della ragione, un nuovo ethos spinoziano che possa permettere all’uomo di permanere nell’esistenza e di fare di libertà e consapevolezza la cifra del suo esistere.


Lorenzo De Stefano, Università di Napoli "Federico II"
* This email address is being protected from spambots. You need JavaScript enabled to view it.

Articolo sottoposto a doppia blind review. Inviato il 17/09/2018. Accettato il 16/05/2019.

Da Lo Sguardo - rivista di filosofia N. 27, 2018 (II) - Politica delle passioni?

Note
1 Acronimo di Online social network.
2 D’ora in avanti userò l’acronimo C.A.
3 Il termine è stato coniato da Luciano Floridi e denota quello spazio non fisico generato dalla giunzione tra mass media classici e ICT ovvero «lo spazio semantico costituito dalla totalità dei documenti degli agenti e delle loro operazioni, dove per ‘documenti’ si intende qualsiasi tipo di dato, informazione e conoscenza, codificata e attuata in qualsiasi formato semiotico, gli ‘agenti’ sono qualsiasi sistema in grado di interagire con un documento indipendente (ad esempio una persona, un’organizzazione o un robot software sul web) e il termine ‘operazioni’ include qualsiasi tipo di azione, interazione e trasformazione che può essere eseguita da un agente e che può essere presentata in un documento». L. Floridi, Infosfera. Etica e filosofia nell’età dell’informazione, Giappichelli, Torino, 2009.
4 In un recente documentario edito dalla BBC chiamato Hypernormalization il regista inglese Adam Curtis descrive accuratamente i rapporti e meccanismi di potere che hanno caratterizzato la società americana e mondiale dagli anni Settanta. In particolare, nel tracciare una genesi del cyberspazio, Curtis insiste sulla sua iniziale natura deregolamentata che fu immediatamente sfruttata dal potere delle corporazioni, in particolare bancarie e finanziarie, per estendere il loro dominio sulla società civile. A tale tendenza si contrappose il cosiddetto movimento tecno-utopistico ispirato dalle idee dello scrittore cyberpunk William Gibson. Sin dalla sua nascita il network è stato pervaso da queste due istanze: da un lato le grosse corporazioni che ne vedevano un potentissimo mezzo di controllo delle masse, dall’altro una cultura libertaria che affondava le radici nella controcultura americana di fine anni Sessanta, che ne individuava un potente mezzo per la realizzazione di una società egualitaria e senza barriere. Uno dei maggiori esponenti del Cyberspace movement è John Barlow autore del manifesto A Declaration of the Independence of Cyberspace reperibile all’indirizzo web https://www.eff.org/it/cyberspace-independence. Per una storia della nascita e genesi di internet si rimanda a M. Castells, Galassia Internet, Milano 2002.
5 Il termine è stato coniato dal sociologo Derrik De Kerckhove e recentemente ripreso nel volume Datacrazia, a cura di D. Gambetta, Roma 2018.
6 Sistema politico che conserva soltanto esteriormente norme e istituzioni democratiche, ma che in realtà è regolato da istanze extra-politiche al di fuori di qualsiasi rappresentanza, quali lobby, potere finanziario, ma soprattutto dai mass media. Cfr. C. Crouch, Postdemocrazia, tr. it. di C. Paternò, Bari 2003.
7 Il termine è stato coniato Alwin Toffler in The Third Wawe per denotare la fusione delle figure del produttore e del consumatore, cosa effettivamente realizzata nella new economy. Cfr. Id., The Third Wave, New York 2008.
8 Cfr. L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano 2017.
9 Fonte: NSF 12-499, p. 2 reperibile al sito: https://www.nsf.gov/pubs/2012/nsf12499/ nsf12499.pdf
10 Cfr. Ippolita, Tecnologie del dominio. Lessico minimo di autodifesa digitale, Milano 2017.
11 Cfr. G. Anders, L’uomo è antiquato I. Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, tr. it. di L. Dallapiccola, Torino 2005, pp. 123 ss.
12 È precisamente quanto sostiene il direttore di Wired Chris Anderson in The end of theory: the data deluges makes the scientific method obsolete («Wired Magazine», 23 giugno 2008)Nel contributo l’autore afferma che nell’epoca del petabyte il metodo scientifico basato sulla verifica empirica e sulla teoria sia stato superato dalla possibilità di processare dati migliori e più completi con strumenti algoritmici più precisi. Pertanto, il momento teorico nella scienza risulta del tutto obsoleto, soppiantato dalla evidenza del dato.
13 Cfr. G. Griziotti, Big Emotional Data. Cybermarcatori cromatici del capitalismo, in Datacrazia, cit., pp. 70-98.
14 Il termine è concetto operativo della filosofia di Michel Foucault che in un’intervista del 1977 ne dà la seguente definizione: «Ciò che io cerco di individuare con questo nome è, in primo luogo, un insieme assolutamente eterogeneo che implica discorsi, istituzioni, strutture architettoniche, decisioni regolative, leggi, misure amministrative, enunciati scientifici, proposizioni filosofiche, morali e filantropiche, in breve: tanto del detto che del non-detto, ecco gli elementi del dispositivo. Il dispositivo esso stesso è la rete che si stabilisce fra questi elementi. In secondo luogo, quello che cerco di individuare nel dispositivo è precisamente la natura del legame che può esistere tra questi elementi eterogenei. […] In breve, fra questi elementi, discorsivi o meno, c’è una specie di gioco, di cambi di posizione, di modificazione di funzioni che possono, anche loro, essere molto differenti. In terzo luogo per dispositivo intendo una specie, diciamo, di formazione che, in un dato momento storico, ha avuto per funzione maggiore quella di rispondere a una urgenza. Il dispositivo ha dunque una funzione strategica dominante. […] A proposito del dispositivo, mi trovo davanti a un problema da cui non sono ancora ben uscito. Ho detto che il dispositivo era di natura eminentemente strategica, la qual cosa implica che si tratta di una certa manipolazione di rapporti di forze, di un intervento razionale e concertato in questi rapporti di forze, sia per svilupparle in una tal certa direzione, sia per bloccarle, oppure per stabilizzarle, utilizzarle. Il dispositivo è sempre quindi iscritto in un gioco di potere, ma sempre anche legato a uno o alcuni limiti del sapere, che vi nascono ma, allo stesso tempo, lo condizionano. È questo, il dispositivo: delle strategie di rapporti di forze che supportano dei tipi di sapere e sono supportati da essi». In M. Foucault, Dits er écrits, vol. III, Paris 2001, pp. 299-300. In questo frangente però si predilige l’ulteriore specificazione operata da G. Agamben, in quanto sintesi tra l’approccio foucaldiano e una certa scuola di filosofia della tecnica tedesca facente riferimento a Gehlen e ad Heidegger: «chiamerò dispositivo letteralmente qualunque cosa abbia in qualche modo la capacità di catturare, orientare, determinare, intercettare, modellare, controllare e assicurare i gesti, le condotte, le opinioni e i discorsi degli esseri viventi. Non soltanto, quindi, le prigioni, i manicomi, il Panopticon, le scuole, la confessione, le fabbriche, le discipline, le misure giuridiche eccetera la cui connessione con il potere è in un certo senso evidente, ma anche la penna, la scrittura, la letteratura, la filosofia, l’agricoltura, la sigaretta, la navigazione, i computers, i telefoni cellulari e – perché no – il linguaggio stesso, che è forse il più antico dei dispositivi, in cui migliaia e migliaia di anni fa un primate – probabilmente senza rendersi conto delle conseguenze cui andava incontro – ebbe l’incoscienza di farsi catturare. [...] Chiamerò soggetto ciò che risulta dalla relazione e, per così dire, dal corpo a corpo fra i viventi e i dispositivi». G. Agamben, Che cos’è un dispositivo, Roma 2006, pp. 21-22.
15 Il data mining è una branca interdisciplinare della computer science che si occupa di estrarre ed elaborare modelli a partire dall’analisi di grossi complessi di dati in maniera automatica o semi automatica attraverso algoritmi. Esso è una parte del processo generale di knowledge discovery in database KDD che U. Fayyad, G. Piatetetesky-Shapiro, P. Smyth, R. Uthurusamy hanno definito «processo non triviale di identificazione di modelli validi, innovativi, potenzialmente utili e in definitiva comprensibili in dati» (cfr. Knowledge Discovery and Data Mining: Towards an Unifying Framework, KDD-96 Proceedings, reperibile al sito https://www.aaai.org/ Papers/KDD/1996/KDD96-014.pdf, p.82). Mentre il KDD costituisce l’intero processo di estrazione, il data mining ne è un momento particolare coincidente con l’applicazione di un algoritmo, pertanto, la cieca applicazione di quest’ultima fase (data dredging) non tenendo conto dell’intero processo di KDD porta all’individuazione di meaningless pattern (cfr. Ivi). KDD e data mining sono un ottimo esempio di “mega-dispositivo” in cui convergono una serie di altre branche dell’informatica quali la statistica, il machine learning e la A.I.
16 La recente riforma del GDPR, a cui tutte le piattaforme online hanno dovuto adeguarsi e che sancisce il divieto di cessione dei dati raccolti senza il consenso informato dell’utente, va proprio verso un tentativo di regolamentazione unitaria e transnazionale del network. Per un approfondimento su tali temi cfr. A. Curioni, La protezione dei dati, Milano-Udine 2018.
17 Cfr. U. Beck, La metamorfosi del mondo, tr. it. di M. Cupellaro, Bari 2017, pp. 142 ss.
18 Su tale argomento cfr. B.-C. Han, Psicopolitica, tr. it. F. Buongiono, Roma 2016, pp. 66 ss. Il filosofo coreano propone un’interessante lettura della società contemporanea come epoca del controllo e della trasparenza digitale, un nuovo Panottico benthamiano dove le pratiche di controllo sono delegate ai controllati stessi a loro insaputa, attraverso l’uso delle tecnologie digitali. Sulla fine della privacy si veda anche M. Castells, Galassia Internet, cit. pp. 163-167.
19 Oltre a questa Beck distingue altre forme di rischio apportate dalla modernizzazione, quali il rischio finanziario, il rischio climatico, il terrorismo. Cfr. La metamorfosi del mondo, cit., pp. 148 ss.
20 Il net criticist Jaron Lainer in La dignità ai tempi di Internet, tr. it. di A. Delfanti, Milano 2014, pp. 326 ss., propone la suggestiva idea secondo la quale, essendo i dati la principale fonte di profitto del capitalismo informatico, l’alienazione dei propri dati a terzi, previa firma di un consenso, possa costituire la futura fonte di guadagno degli individui in un’epoca in cui il lavoro fisico tende sempre più a scomparire.
21 Il termine, come è noto, è stato coniato da G. Anders e indica la disparità tra capacità umana di produrre (herstellen) e di rappresentare (vorstellen) gli esiti delle nostre azioni. In una seconda accezione esso è sintomo della discrepanza tra le capacità della macchina e quelle umane. Cfr. G. Anders, L’uomo è antiquato, cit., pp. 50 ss.
22 Ivi, p. 150.
23 Da questo punto di vista ciò sembra dar ragione a quanto preconizzato brillantemente da Ernst Jünger: «Quando tutte le istituzioni divengono equivoche o addirittura sospette, e persino nelle chiese si sente pregare ad alta voce per i persecutori, anziché per le vittime, la responsabilità morale passa nelle mani del singolo, o meglio del singolo che non si è ancora piegato». Cfr. Trattato del ribelle, tr. it. di F. Bovolo, Milano 1990, p. 114.
24 Questa caratteristica dei sistemi complessi di apparati o della megamacchina è stata brillantemente descritta da S. Latouche in La megamacchina. Ragione tecnoscientifica, ragione economica e mito del progresso, tr. it. di A. Salsano, Torino 1995 e, ancora, da G. Anders, L’uomo è antiquato II. Sulla distruzione della vita nell’epoca della terza rivoluzione industriale, tr. it. di M. A. Mori, Torino 2007.
25 Knowledge Discovery in Database.
26 Per una tassonomia delle varie tipologie di dati si rimanda a A. Fumagalli, Per una teoria del valore-rete. Big data e processi di sussunzione, in Datacrazia, cit., pp. 46-69.
27 Su questo argomento si rimanda a E. Parisier, Filter Bubble, What Internet Is Hiding You, New York 2011, pp. 69 ss.
28 Il link di riferimento è mypersonality.org.
29 Cfr. M. Kosinski, D. J. Stillwell, e T. Graepel, Private traits and attributes are predictable from digital records of human behavior. Proceedings, «PNAS», 110 (15), 2013, pp. 5802-5805 consultabile al sito https://www.pnas.org/content/110/15/5802. Nel documento leggiamo: «may have considerable negative implications, because it can easily be applied to large numbers of people without obtaining their individual consent and without them noticing. Commercial companies, governmental institutions, or even one’s Facebook friends could use software to infer attributes … that an individual may not have intended to share. ... such predictions, even if incorrect, could pose a threat to an individual’s well-being, freedom, or even life. Importantly, given the ever-increasing amount of digital traces people leave behind, it becomes difficult for individuals to control which of their attributes are being revealed. For example, merely avoiding explicitly homosexual content may be insufficient to prevent others from discovering one’s sexual orientation».
30 Cfr. R. Lambiotte e M. Kosinski, Tracking the Digital Footprints of Personality. «Proceedings of the Institute of Electrical and Electronics Engineers (PIEEE)», vol. 102, 2014, pp. 1934-1939 reperibile al sito https://doi.org/10.1109/JPROC.2014.2359054 e M. Kosinski, Y. Wang, H. Lakkaraju e J. Leskovec, Mining Big Data to Extract Patterns and Predict Real-Life Outcomes, «Psychological Methods», vol. 21, 2016, pp. 493-506. Reperibile al sito https://psycnet.apa. org/record/2016-57141-003
31 Cfr. www.nytimes.com/2018/03/20/world/africa/kenya-cambridge-analytica-election.html.
32 Per un chiarimento sul ruolo di Turnbull nello scandalo C.A: si veda https://www.theguardian. com/news/2018/mar/18/what-is-cambridge-analytica-firm-at-centre-of-facebook-data-breach; il video della intervista di Channel 4 a Turnbull da cui è stata presa la dichiarazione è visionabile al link https://www.youtube.com/watch?v=mpbeOCKZFfQ.
33 Oxford Dictionaries, che ha eletto post-truth come parola dell’anno, ne dà la seguente definizione: «an adjective defined as relating to or denoting circumstances in which objective facts are less influential in shaping public opinion than appeals to emotion and personal belief». Fonte: https://en.oxforddictionaries.com/word-of-the-year/word-of-the-year-2016.
34 Cfr. Platone, Sofista, a cura di F. Fronterotta, Milano 2008, 225d10 ss. e 232b-235c. Sul nesso tra sofistica e aisthesis cfr. Teeteto, a cura di F. Ferrari, Milano 2011, 152b1 ss.
35 Si veda ad esempio la chimica e la storia dei sentimenti morali in Umano troppo umano (a cura di S. Giametta, Milano 2006, pp. 43 ss.) e ne La Gaia Scienza, (tr. it. F. Masini, Milano, 2015), in particolare si legge nell’af. 11 «La coscienza. La coscienza è l’ultimo e più tardo sviluppo dell’organico e di conseguenza anche il più incompiuto e il più depotenziato».
36 Su tale argomento cfr. anche M. C. Nussbaum, L’intelligenza delle emozioni, Bologna 2017, pp. 177 ss.
37 Cfr. M. Airoldi, L’output non calcolabile. Verso una cultura algoritmica, in Datacrazia, cit., pp. 215 ss.
38 T. Gillespie, The relevance of algorithms, Cambridge 2014, p. 167.
39 Per un approfondimento sui meccanismi che stanno dietro la strutturazione delle echo chamber cfr. anche E. Parisier, The Filter Bubble, cit., e W. Quattrociocchi, A. Vicini, Misinformation. Guida alla società dell’informazione e della credulità, Roma 2016.
40 Cfr. Ippolita, Anime elettriche, Milano 2016.
41 La exagoreusis, secondo quanto riferisce Foucault, è una pratica che si diffonde a partire dal IV secolo come ricezione da parte del cristianesimo degli esercizi spirituali di scrittura e confessione di matrice stoico-epicurea. Essa è un’antesignana della confessione e dell’esame di coscienza agostiniana, una verbalizzazione di pensieri realizzata attraverso l’assoluta obbedienza all’autorità e al sistema di valori del confessore. Cfr. M. Foucault, Tecnologie del sé, Torino 1992. Per un approfondimento di tali tematiche cfr. anche Ippolita, Anime elettriche, cit., pp. 48 ss.
42 Cfr. M. Foucault, Sull’origine dell’ermeneutica del sé, Napoli 2012.
43 Su tale tema cfr. anche B.-C. Han, La società della trasparenza, Milano 2014.
44 Cfr. Ippolita, Anime elettriche, cit., p. 50.
45 Ippolita, Anime elettriche, cit., p. 52.
46 Foucault riporta la testimonianza di Girolamo su Fabiola, una nobildonna romana rea di aver contratto seconde nozze prima della morte del primo marito.
47 M. Foucault, Sull’origine dell’ermeneutica del sé, cit., p. 71.
48 Ippolita, Anime elettriche, cit., p. 58.
49 M. Castells, Galassia internet, cit., p. 163, sostiene che tutte le tecnologie di controllo digitali si fondano su due assunti: «la conoscenza asimmetrica dei codici del network e la capacità di definire uno spazio scientifico di comunicazione suscettibile di controllo».
50 Il termine è usato da Floridi per denotare il carattere ibrido della vita ai tempi della infosfera costantemente divisa tra mondo reale e online. L’onlife è la situazione tipica dell’individuo nell’epoca della Quarta Rivoluzione, risultante dalla interazione tra ICT, soggettività e sé sociale, essa denota una modificazione del flusso esperienziale nel segno continuità indistinta e fluida tra reale e virtuale. Cfr. L. Floridi, La Quarta Rivoluzione, cit., pp. 67 ss.
51 Ippolita, Tecnologie del dominio, Milano 2017, p. 107.
52 Il termine è stato coniato dallo psicologo ungherese Mihály Csíkszentmihály in riferimento allo stato di concentrazione mentale raggiunto dagli sportivi. Lo psicologo definisce l’esperienza in grado di generare gli stati di flusso autotelica, il che vuol dire che il suo fine coincide con la stessa partecipazione al gioco. Cfr. M. Csíkszentmihály, Flow: The Psychology of Optimal Experience, New York 1990.
53 Per un’introduzione sulle pratiche di gamificazione si rimanda a V. Petruzzi, Il potere della Gamification. Usare il gioco per portare cambiamenti nelle performance individuali, Milano 2015.
54 Ippolita sottolinea come l’atto di effettuare lo scroll sulla propria bacheca Facebook o Instagram presenta straordinarie analogie con le sequenze gesturali del giocatore d’azzardo alla slot machine o al video poker. Cfr. Ippolita, Tecnologie del dominio, cit., p. 112.
55 La dimensione prevalentemente ottica delle tecnologie digitali come «amplificazione dello spazio ottico» e «regime della visualizzazione generalizzata o del voyeurismo universale» è stata sottolineata da P. Virilio, La bomba informatica, Milano 2000. Su tale tema cfr. anche C. Formenti, Incantati dalla rete, Milano 2000.
56 S. C. Matz, M. Kosinski, G. Nave e D. J. Stillwell, Psychological targeting as an effective approach to digital mass persuasion, “PNAS “, vol 114, November 13, 2018 pp. 12714-12719. Il documento è consultabile al sito https://www.pnas.org/content/114/48/12714
57 H. Arendt, Le origini del totalitarismo, a cura di A. Martinelli, Torino 2004, p. 584.
58 Cito dall’edizione B. Spinoza, Etica, in Id., Tutte le opere, a cura di A. Sangiacomo, tr. it. G. Durante, Milano 2011.
59«Questo sforzo quando è riferito soltanto alla mente si chiama volontà; ma, quando è riferito insieme alla mente e al corpo, si chiama appetito, il quale, quindi non è altro se non la stessa essenza dell’uomo, dalla cui natura segue necessariamente ciò che serve alla sua conservazione […]. Non c’è poi alcuna differenza tra appetito e cupidità, tranne che la cupidità si riferisce per lo più agli uomini in quanto sono sono consapevoli del loro appetito, e perciò si può definire così: la cupidità è l’appetito con coscienza di se stesso» (Etica III, Scolio Prop. IX).
60 Cfr. M. C. Nussbaum, L’intelligenza delle emozioni, tr. it. R. Scogliamiglio, Bologna, 2004. p. 595.
61 R. Bodei, Geometria delle passioni, Milano 2003, p. 69.
62 Ivi, p. 35.
Pin It

Add comment

Submit