Print Friendly, PDF & Email

blackblog

La mano invisibile degli algoritmi

I dieci comandamenti della governance

di António Covas

dataismo4È possibile che dopo tutta quest'abbuffata di caso e necessità, fatta così tanto di determinismo e di casualità, di così tanta arte, politica e filosofia, ci troveremmo ad essere ostaggi della governance algoritmica, o finiremmo per diventare i credenti del dataismo?

Ci troviamo nella piena digitalizzazione della società, delle persone e delle cose. D'ora in poi, ogni cosa è intelligente "in modo digitale": la casa, l'automobile, l'azienda, l'ufficio, la scuola, la strada, l'ospedale, ecc. Tutto acquisisce una vita propria, quel che è reale è virtuale, e quel che è virtuale è reale, e ogni cosa snocciola informazioni per tutto il tempo. È questo il futuro radioso che ci era stato promesso dall'economia dell'informazione, dall'analisi dei dati, dai Big Data, ovvero dalla religione del dataismo.

Dopo la mano divina, e dopo la mano invisibile del mercato, siamo arrivati alla mano seducente e benevola dei Big Data. L'economia dei Big Data è, se vuoi, la mano invisibile della libertà di circolazione dell'informazione. Più dati, sempre più dati, e saremo così sempre più vicini alla verità, in questo grande bazar che sono i processori di dati, l'universo degli algoritmi e del meta-algoritmi. Il razionale del dataismo consiste nel trovare una norma standard di comportamento e, a partire da essa, prevenire l'incertezza e la deviazione che viene sempre percepita dalla nostra imperfetta razionalità biologica. La grande ambizione dell'intelligenza razionale del dataismo è quella di sostituire la "nostra imperfezione", che dopo tutto è la nostra coscienza emozionale ed individuale e la nostra intersoggettività. In questo senso, con molta benevolenza, possiamo dire che gli algoritmi sono una sorta di fratelli più vecchi, se vogliamo, dei narratori autorizzati della nostra esistenza. Ed è meglio seguirli! In un oceano di informazioni, solo questi calcolatori universali, gli algoritmi, hanno la capacità analitica in grado di processare e trattare così tanti "dati irrilevanti" di natura infra-personale.

In questo modo l'economia dei Big Data costruisce un linguaggio comune ed apre la porta ad una nuova teoria dell'equilibrio generale, una teoria dei metadati che istituisce una personalizzazione senza soggetto, oppure varie personalizzazioni o traiettorie possibili, dove noi (alcuni di noi) "possiamo scegliere le nostre narrazioni personali". In breve, una governance basata su algoritmi, una traiettoria scorrevole, la storia del futuro davanti a noi con una "chiarezza impressionante". Vale la pena fare una breve incursione nei comandamenti di questo vero e proprio vangelo del nostro tempo.

 

I dieci comandamenti della governance dell'algoritmo

La digitalizzazione ha abbastanza alterato le categorie convenzionali delle relazioni sociali. Il confine fra il reale ed il virtuale ha sempre meno senso, perciò, la società, al giorno d'oggi, è essenzialmente un assunto interpretativo (si veda la post-verità e la fake new) e molti effetti non sono desiderabili, non intenzionali e controintuitivi. Pertanto, le nuove categorie del sociale, la loro materia prima, sono: la virtualità, il rischio, la simulazione, la dissimulazione, la rappresentazione. La simulazione e la dissimulazione non ci permettono di vedere il principio di realtà, e la pluri-significazione della realtà secerne tanto la contingenza quanto la libertà. L'universo digitale e la cybercultura rimangono affascinati dalla distinzione fra autenticità e simulazione, ed il disordine fra coscienza e intelligenza diventa una linea rossa tracciata fra algoritmi organici ed inorganici, un luogo dove si deposita, nonostante tutto, la speranza di una rivelazione.

In questo contesto generale, noi, esseri umani, siamo una specie di algoritmo biologico. A partire da ora, nell'universo virtuale del Big Data, diventiamo, anche, una specie di personal coach, un assistente intelligente, un algoritmo. Il mio algoritimo è una meta-applicazione, un'applicazione di applicazioni, concepito per pensare il mio possibile perfezionamento. Per cui ho un gemello algoritmico che mi sussurra all'orecchio le ultime novità tecno-umaniste del Big Data e del Dataismo. Sarà questo il futuro? È una possibilità aperta, fra tutte le altre. Ecco alcune brevissime riflessioni in proposito, sotto forma di comandamenti.

 

1 - Il riflesso al posto della riflessione

Nell'universo digitale e nella religione del dataismo, noi umani siamo un "evento informativo" nel grande flusso di informazioni. A partire dai segnali infra-personali fino ai modelli sovra-individuali, siamo un riflesso anziché una coscienza riflessiva, come se la vita venisse riassunta nella personalizzazione di un flusso di dati. Per un algoritmo dei Big Data, siamo un'informazione sempre attualizzata, senza né passato né futuro, una serie di "adesso" successivi, un'ottimizzazione del quotidiano ottenuta attraverso una vertigine digitale di questo quotidiano.

 

2 - La correlazione al posto della causalità

Man mano che il nostro comportamento converge verso il modello sovra-individuale, la correlazione si avvicina alla causalità, la personalizzazione è in costante movimento ed il soggetto sparisce, e in questo modo l'algoritmo porta a termine il suo compito. Tutto quello che proviene dal passato, dal "vecchio umanesimo", ha perso di importanza ed è stato dissipato: i sentimenti, le distrazioni, i sogni, i desideri, vale a dire, il nostro passato biochimico e tutto ciò che costituiva l'intelligenza emotiva dell'essere umano individuale. D'ora in avanti, il comportamento deviante diviene una semplice deviazione dal modello standard.

 

3 - I dati al posto dei concetti

Ciò che è in gioco è la vecchia scienza e la cognizione dei concetti e del pensiero concettuale, poiché a partire da degli algoritmi biochimici ed organici, fino agli algoritmi elettronici ed inorganici, è possibile tutto, nell'universo del dataismo. È come se i concetto finissero per essere parte della "vecchia cognizione" e rivelassero un margine di incertezza o un "eccesso di peso" che ormai non si concilia più col rigore metodologico della nuova scienza cognitiva. La scienza dei dati e dell'intelligenza artificiale non soffre di obesità né di eccesso di peso, ma quel che emerge è un nuovo universo cognitivo che indossa un abito fatto su misura.

 

4 - Non preoccuparti del libero arbitrio

Non vi dovete preoccupare del libero arbitrio, perché noi - i vostri algoritmi - siamo in grado di tracciare il percorso sicuro fra determinismo e caso. Tutto quello che dovete fare, è fornirci tutte le informazioni necessarie di cui abbiamo bisogno, in modo che noi possiamo darvi quella massa immensa di informazione che vengono costantemente, e per tutto il tempo, caricate in tutti i supporti digitali di cui voi siete fedeli depositari e utilizzatori. E tutto questo, praticamente, a costo marginale zero. A partire da questo, con il vostro consenso, i Big Data utilizzeranno l'algoritmo appropriato per dirvi come sarà oggi il vostro futuro. Se ci sarà una tracciabilità sufficiente, saremo i vostri assistenti.

 

5 - L'ibridazione fa parte dell'evoluzione naturale

Gli algoritmi ci fanno andare verso la grande avventura dell'ibridazione uomo-macchina, verso la fusione dell'intelligenza umana con l'intelligenza artificiale. In questa grande avventura post-umanista del XXI secolo, entrano in gioco anche gli organi bionici, i sensori biometrici e i chip nano-tecnologici dell'uomo aumentato e trans-umanista. Questa ibridazione post-umanista apre la strada verso degli interessanti dibattiti: in primo luogo, il binomio intelligenza-coscienza, nel senso che gli algoritmi sono intelligenti e, anche, apprendono consapevolmente in maniera profonda, ed in secondo luogo, questo apprendimento profondo del sistema algoritmico ci trasporta in un universo trans-umanista, verso una nuova varietà di specie umana!

 

6 - Chi non deve non teme e la servitù è volontaria!

Un giorno, i Big Data, attraverso un loro utilizzo malvagio, potranno diventare un Grande Fratello? I profeti della bio-evoluzione preferiscono trasformare la normatività sociale espressa dal dataismo in ottimismo materno, e preferiscono parlare di Grande Madre, relegando su un piano secondario il lato più oscuro del Grande Fratello. Dopotutto, chi non è costretto a fare non deve temere. L'iper-sorveglianza può essere piuttosto scomoda, ma la servitù volontaria è sempre più preferibile alla violenza gratuita degli esseri umani.

 

7 - La presunzione dell'accadimento, il caso ha smesso di esistere

Come abbiamo già detto,  siamo, gli umani, essenzialmente un evento informativo in un flusso continuo di dati e di informazioni. La depurazione e la decantazione, svolta dall'algoritmo di servizio rispetto ai dati grezzi raccolti in molteplici fonti di informazione, ci permettono di poter affermare la presunzione dell'accadimento con un'elevata probabilità. Dove prima esisteva il caso, ora c'è la necessità. È tutto a nostro vantaggio, in quanto la nostra distrazione e l'errore hanno già causato un elevato rischio morale, così come molti gravi danni collaterali.

 

8 - L'intenzione viene messa sotto sorveglianza, il colpevole crea il sospetto

Se seguiamo da vicino le indicazioni del nostro assistente digitale, l'algoritmo, e le sue raccomandazioni, non ci sarà nessun motivo per cui dobbiamo essere preoccupati, vale a dire, le nostre intenzioni non verranno messe in discussione e non ci sarà alcun motivo perché ci sia un processo alle intenzioni. Diciamo, solamente, che una giustizia cautelare sarà molto più efficace ed efficiente. Saremo solo sospettati, e non colpevoli, e potremmo, forse, aver perso una parte significativa della nostra libertà e del nostro libero arbitrio. Però, lo avremmo fatto nel nome di una servitù volontaria e consensuale. Meno umana e più artificiale.

 

9 - Non esiste umanità superflua e l'intimità è un'anomalia

I dati saranno la materia prima, nuda e cruda. Pertanto, tutto quanto dev'essere decontestualizzato ed estirpato. Le relazioni umane e sociali non sono categorie con un valore analitico sufficiente, ma ostacolano soltanto il lavoro di depurazione e ripulitura. Dall'altro lato, l'intelligenza umana è limitata per natura ed ha bisogno dell'intelligenza artificiale per poter aumentare la sua capacità intellettuale. Allo stesso modo, l'intelligenza emotiva, per esempio, sotto forma di relazioni solidali, apporta una sorta di obesità inutile e sconveniente, e perfino l'intimità è un'anomalia, un dettaglio, in quanto, d'ora in poi, non ci sarà più niente da nascondere. Con il tempo, sarà l'intelligenza artificiale ad occuparsene.

 

10 - Il governo è un'industria inefficace e noi solo degli utili idioti

I termini dell'equazione fra intelligenza umana ed intelligenza artificiale stanno cambiando, a prescindere da quale possa essere la prospettiva, che sia bio-progressista o che sia bio-conservatrice. Infatti, nel quadro della grande trasformazione digitale in corso, il discorso emergente ci dice che il governo è un'industria inefficace, che le istituzioni in generale sono costose e pigre e la democrazia è sempre più maldestra per poter gestire la governance algoritmica. Dobbiamo trovare rapidamente un nuovo modo di pensare, di essere e di fare politica, pena altrimenti essere ridotti a degli utili idioti della governance algoritmica.

 

Note Finali

Qui arrivati, si danno alcuni avvisi ai naviganti.

Gli algoritmi sono concepiti secondo modelli matematici che riflettono l'ideologia e l'orientamento di coloro che li hanno concepiti. Essi possono aumentare le disuguaglianze e minacciare la democrazia, cioè, possono trasformarsi in "armi di distruzione matematica" (Cathy O’Neil, 2016, Weapons of Math Destruction). In quelli che sono i momenti decisivi della nostra vita, possiamo "essere distratti" ed affidarci troppo a delle decisioni arbitrarie a discrezione di alcuni algoritmi. Essi non cambiamo i termini dell'equazione, ma sono solo degli AI (Assistenti Intelligenti) e non i padroni dell'universo.

Seguendo i precedenti argomenti, potremmo dire che gli algoritmi possono essere sia una guardia pretoriana di qualcuno che si è candidato alla dittatura, così come possono essere la guardia avanzata di un capitalismo globale e predatore, così come, ancora, una rete distribuita di prossimità al servizio di una società più uguale e più democratica. Essendo tutto questo, l'algoritmo rivela ciò che già sappiamo, vale a dire, la sua funzionalità strumentale al servizio degli "uomini senza volto", i quali, in genere, disprezzano i limiti della politica e le responsabilità pubbliche che le sono inerenti.

In realtà, sono in atto delle alterazioni culturali e di civiltà di ampia portata che aspettano solo l'occasione per poter esplodere in superficie. Qui di seguito alcune domande finali che pongo qui per la riflessione:

- L'umanesimo in quanto singolarità a partire dal XVI secolo, quindi, al di là degli algoritmi, dei Big Data e del dataismo, quale umanesimo riapriremo? Cioè, c'è una "nuova specie umana", ci sono, al di là del nostro algoritmo bio-chimico, delle nuove varietà in costruzione?

- Che cosa fare con la nostra minuscola isola di coscienza, vale a dire, il post-umanesimo potrebbe essere una transizione verso altri universi di senso e di stati mentali?

- Al di là dei modelli matematici della società algoritmica, chi sono gli uomini senza volto che ci governano e qual è il loro grado di responsabilità pubblica e democratica nei nostri confronti?

- E a proposito della governance della società algoritmica, in che modo avviene che il pensiero e l'azione politica interagiscano con queste nuove "corporazioni dell'algoritmo, dei Big Data e del dataismo"?

Alla fine, in sintesi, è possibile che dopo tutta quest'abbuffata di caso e necessità, fatta così tanto di determinismo e di casualità, di così tanta arte, politica e filosofia, ci troveremmo ad essere ostaggi della governance algoritmica, o finiremmo per diventare i credenti del dataismo? E In questo crocevia temporale, in questo bivio che abbiamo imboccato, dov'è andato a finire il nostro libero arbitrio e l'incertezza a proposito del futuro? E, dopo tutto, dov'è andato a finire il nostro piccolo margine di libertà?

Add comment

Submit