Governare senza governare

Stampa questo articolo Stampa questo articolo

Segnaliamo la pubblicazione della traduzione italiana dell’importante volume di Thomas Berns, Governare senza governare. Un’archeologia politica della statistica curato e introdotto da Pietro Sebastianelli. Il volume è uscito nella collana Filosofia, Democrazia, Innovazione del nostro centro studi presso l’editore Guida di Napoli. Il testo presenta una post-fazione inedita dell’autore che pubblichiamo a seguire


Lo studio dei primi gesti teorici che annunciano, già nella seconda metà del XVI secolo, l’emergere di una mentalità statistica ai margini di una mentalità giuridica centrata sulla sovranità, è stato un passo essenziale che mi ha permesso di produrre una griglia concettuale per analizzare gli sviluppi più recenti delle pratiche normative del capitalismo contemporaneo.

Mi riferisco soprattutto a una serie di analisi che con Antoinette Rouvroy[1] abbiamo proposto per far emergere l’idea di un continuo rinnovamento della governamentalità negli ultimi vent’anni – un rinnovamento che ha richiesto una riflessione a livello filosofico-politico, ma che è stato attuato attraverso la generalizzazione di nuove pratiche statistiche automatizzate all’opera in tutti gli aspetti della vita. Abbiamo definito questo processo «governamentalità algoritmica», con l’obiettivo di insistere sia sulla necessità di sviluppare un apparato concettuale commisurato al fenomeno nel suo complesso, sia sul fatto che questo apparato deve necessariamente essere di natura politica, al di fuori di qualsiasi determinismo tecnologico e di qualsiasi riduzione strumentale della tecnica. L’obiettivo era quello di mostrare come si orienta la maggior parte del nostro comportamento e inche misura questo “come” determina o indebolisce la nostra capacità di resistere a questi processi. È emerso che, nonostante la loro estrema personalizzazione, le tecniche normative che costituiscono la governamentalità algoritmica vengono impiegate in modo tale da rallentare e indebolire qualsiasi possibilità di soggettivazione da parte degli esseri orientati da queste tecniche, con il risultato che troveremmo difficile diventare soggetti, individualmente o collettivamente, all’interno dei processi da cui siamo governati.

In altri studi[2] ho cercato di affrontare, in modo ancora più globale, il disimpegno così prodotto da una rappresentazione legale della norma: che si tratti di una questione di governamentalità algoritmica, o di generalizzazione delle pratiche di denuncia, o dinuove richieste di definizione della realtà (trasmesse da istituzioni paradigmatiche come il DSM, Manuale Diagnostico e Statistico dei Disturbi Mentali, o l’ISO, Organizzazione Internazionale per la Standardizzazione), ogni volta sono all’opera attività normative che si oppongono alla rappresentazione legale della norma. Questa situazione di concorrenza normativa – la fase più recente dell’evoluzione del capitalismo? – in cui la legge diventa una norma tra le altre, ci pone anche di fronte all’idea di una normatività la cui unica qualità è quella di “esprimere” la realtà piuttosto che “agire” su di essa, e che trova tutto il suo potere normativo nell’idea della sua immanenza alla realtà. E non ha molta importanza, ovviamente, se questa pretesa di esprimere il reale sia realmente fondata o meno; ciò che conta qui è che solo essa è ora in grado di garantire la legittimità della norma, a scapito di tutto ciò che ha giustificato il rapporto giuridico con il reale, ossia l’idea che quest’ultimo sia disfunzionale e che quindi richieda di essere ordinato o stabilito dalle istituzioni. Tale analisi dello spazio contemporaneo a partire dall’idea di una competizione tra la natura stessa delle normatività trova la sua espressione più visibile nella rivalità tra il principio giuridico della pubblicità e l’ingiunzione diffusa alla trasparenza.

In nessun caso si è trattato di utilizzare questo confronto tra diversi tipi di normatività, e in primo luogo tra la normatività giuridica e le normatività di tipo statistico[3], per invocare il ritorno a una sorta di monopolio della prima o per imputare alla seconda una negatività intrinseca, ad esempio da una prospettiva tecnofobica, o addirittura per farne il semplice strumento di un progetto di dominio o addirittura di controllo globale. Al contrario, è molto più concreto e positivo approfittare di questa situazione competitiva, che mina qualsiasi pretesa di monopolio sovrano della legge in campo normativo, per chiederci che cosa continua a legarci o a ispirarci nel mondo del diritto, e questo al di fuori di qualsiasi argomento che rivendichi un ritorno della sovranità. Che cosa ci lega a questo mondo del diritto – considerato da una prospettiva post-sovrana – e cosa manca al contesto di queste altre pratiche normative, e più in particolare al contesto della governamentalità algoritmica? Cosa manca, in altre parole, per produrre soggettività politiche all’altezza di queste ultime?

Al massimo, se dovessimo assumere esplicitamente una preoccupazione generale che giustifichi le analisi qui menzionate, riconosceremmo la seguente prospettiva nel modo più chiaro possibile: fino a che punto possiamo descrivere una sempre maggiore propensione a essere governati in aree sempre più ampie della nostra esistenza? Come possiamo spiegare il fenomeno dell’ipertrofia normativa attualmente in atto, vale a dire anche la nostra mancanza di controllo per frenarlo o il fatto che qualsiasi tentativo di resistere ad esso non fa che aumentarlo?

Ora – ed è l’unico punto che intendo sottolineare in questa sede – questo insieme di analisi (che cosa è in grado di spiegare la governamentalità algoritmica riguardo ai modi contemporanei di orientare il comportamento? E lo sviluppo sempre più intenso di una situazione di concorrenza normativa?), diagnosi (cosa permetterebbe di promuovere possibilità, attualmente troppo deboli, di soggettivazione politica all’altezza delle sfide della governamentalità algoritmica? In che misura questo richiede di pensare a un diritto al di là di ogni sovranità?) e le preoccupazioni (che dire dell’ipertrofia normativa contemporanea e dell’assenza di un modo per affrontarla?) hanno richiesto un approccio genealogico basato, ad esempio, sui dibattiti relativi al censimento del 1570. Perché? Perché ciò che cercava di spiegare la forza motrice di una tale dinamica normativa non era altro che un senso comune spaventoso, inarrestabile e quindi pericoloso, un senso comune che si ritrova nelle parole di Bodin analizzate in questo libro, così come nelle parole di Eric Schmidt, allora CEO di Google, durante un’intervista alla CNBC dedicata al crescente volume di dati personali conservati dalla sua azienda, dati che ha anche riconosciuto di poter trasmettere alle autorità americane nell’ambito del Patriot Act: Se avete qualcosa che non volete far sapere a nessuno, forse non dovreste farlo in primo luogo. Tuttavia, affrontare i pericoli insiti in ciò che pretende di essere il buon senso e l’evidenza richiede innanzitutto di essere capaci di molte deviazioni per assicurarci una certa presa sul reale.

Thomas Berns

Marzo 2023


[1] Thomas Berns e Antoinette Rouvroy, Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’émancipation par la relation?, in Réseaux, 2013/1, n° 177, La Découverte, pp. 163-196. Vedi anche Thomas Berns, Sortir de la répétition de la gouvernementalité algorithmique, in Bernard Stiegler (a cura di), La toile que nous voulons, FYP Editions, 2017, pp. 77-88.

[2] Thomas Berns, Not individuals, Relations: What Transparency is really about. A theory of algorithmic Governmentality, in Transparency, Society, Subjectivity – Critical Perspectives,  ed. Springer, 2018, pp. 243-257; Id., Secret et transparence, entretien avec T. Berns, I. Boucobza et C. Girard, réalisé par M. Goupy, Rue Descartes, numero dedicato alle Politiques du secret, 98, 2020/2, pp. 118-144  (http://www.ruedescartes.org/article/?article=RDES_098_0118); Id., Les secrets de la transparence: l’exemple du moteur de recherche, in Pistes, Revue de philosophie contemporaine, 2 (2022), Vrin, pp. 105-117; Thomas Berns, Tyler Reigeluth, Éthique de la communication et de l’information: Une initiation philosophique en contexte technologique avancé, Bruxelles, Presses universitaires de Bruxelles, 2021.

[3] Ciò è detto senza negare le rotture che organizzano la storia delle normatività statistiche, dalla loro preistoria nei progetti di censimento, oggetto di questo libro, all’emergere della probabilità nel XVII secolo, poi alla nascita del sociale nel XIX secolo e della scienza statistica, e infine alla scomparsa di quest’ultima a vantaggio di pratiche statistiche automatizzate e direttamente decisionali nel quadro della governamentalità algoritmica.

Stampa questo articolo Stampa questo articolo