Scienza e politica nelle tecnologie dell’evidenza

Di: Valeria Pinto
1 Aprile 2023

 

1 Tecnologie invisibili

«Tecnologie dell’evidenza» – o anche «evidentiary technologies productive of truth»1 – è l’espressione che oggi si adopera per indicare le tecnologie finalizzate a evidence-based practices o evidence-based policies (EBP), ossia a quelle che ormai sono implicitamente o esplicitamente le pratiche politiche che hanno preso il posto della politica tout court2.
La prima significativa implementazione di questo modello si deve, a fine anni Novanta, a Tony Blair e al suo libro bianco Modernising Government, il quale invitava appunto a «mettere in discussione i modi ereditati di fare le cose e ad abbandonare il vecchio modello politico» (il cosiddetto “modello Westminster”), a vantaggio di «un approccio più rigoroso e sistematico […] che avrebbe portato a grandi miglioramenti dei risultati», mettendo «fine al processo decisionale basato sull’ideologia» a vantaggio della «obiettivazione scientifica», di «ciò che funziona»3. Il progetto era quello di estendere ad altre pratiche la grande trasformazione avvenuta nella medicina: da sapere non scientifico – “cura” che non può assicurare il risultato, la guarigione – a sapere scientifico basato sull’evidenza (protocolli standard, studi random, statistica medica, ecc.). Un’estensione che ha avuto luogo anche grazie ad una vera e propria rivoluzione dall’alto, attuata in buona parte attraverso politiche pubbliche volte a premiare progetti, ricerche, gruppi di ricerca, discipline rispondenti al nuovo format, e che ha determinato la metamorfosi di pratiche, a volte plurisecolari, tra loro anche molto diverse – dall’educazione, all’economia, all’attività giudiziaria – ma artificialmente unificate appunto sotto la forma sistematica dell’evidence-based4. Transito forzato, o forse soltanto “nudged”, ma in tutti i casi, nei fatti, una svolta – che si ritiene non ancora interamente compiuta, se è vero che tra le preoccupazioni al centro della nuova agenda europea (Horizon Europe) è insistentemente richiamata appunto l’evidenza come fondamento del decision-making. Dove è interessante notare come la guida delle politiche europee sia ormai passata dal principio di precauzione al principio di innovazione, proprio per il pregio di quest’ultimo di favorire le EPB, là dove invece il primo avrebbe alimentato piuttosto paure infondate, timori ingiustificati, privi appunto di ogni “evidenza”5.
Ora, per quanto possa apparire singolare e paradossale, le tecnologie dell’evidenza sono per lo più tecnologie invisibili6, secondo un termine ormai codificato per indicare dispositivi e pratiche di management. Tali sono, per esempio, un questionario per la soddisfazione del cliente, un ranking, una procedura ISO, un sistema standardizzato di peer review, eccetera. Ma anche le tecnologie che, negli ultimi tempi, hanno strutturato la cosiddetta didattica a distanza (in particolare le forme ibride), così come quelle che l’hanno promossa come didattica innovativa presso il grande pubblico. Un caso esemplare, in effetti, di evidence-based education, su cui vale la pena soffermarsi, perché consente di mettere bene a fuoco alcuni tratti fondamentali delle tecnologie dell’evidenza e delle EPB in un ambito di cui chiunque, in un modo o nell’altro, ha avuto esperienza e dove si opera direttamente su una facoltà – l’intelligenza – classicamente considerata il tratto distintivo del genere umano. 

 

2. Nihil nisi bonum

Quando, nel 2021, uno studente dell’università di Montreal annunciò su Twitter la scoperta che il professore di cui seguiva ogni settimana le lezioni, e con cui aveva anche provato a interloquire, era in verità morto da due anni, la replica dell’Ateneo fu che, alla fin fine, un corso registrato non è poi diverso da un libro e che nella difficoltà della pandemia andava prestata attenzione anche ai costi7. Se è vero che «la politica basata sull’evidenza (EBP) mira a rispondere a un’unica domanda: cosa funziona nei settori della salute, dell’istruzione, della giustizia e del welfare?» e «si inserisce nel filone della valutazione delle politiche pubbliche (…) con il suo estremo strumentalismo e decisionismo»8, la posizione dell’università di Montreal appare straordinariamente coerente. Un professore universitario morto costa meno di uno vivo, e magari è anche più efficace di uno vivo, funziona meglio. E in effetti è così: soltanto un professore morto funziona, mentre uno vivo per definizione non funziona. Grazie a un buon lavoro di postproduzione e di “ingegneria didattica” (disciplina realmente esistente e operante – e tanto più oggi economica con OpenAI e simili), uno spettro telematico consente di raggiungere meglio il risultato atteso e replicabile.
Comprensibilmente, nei giorni della pandemia di Sars-CoV-2, il dibattito sulla didattica si è concentrato anzitutto sulle tecnologie visibili: telecamere, microfoni direzionali, aule attrezzate per la didattica “blended” (tutte cose molto visibili a causa della loro novità ma destinate a scivolare presto, come ogni strumento, nella normale invisibilità, per rendersi presenti solo in caso di “importuno” non funzionamento). Pochi, invece, hanno prestato attenzione all’aspetto più inquietante della didattica su piattaforme, vale a dire ai sistemi sottostanti di raccolta, misurazione, analisi e gestione dei dati. Grazie al fatto che tutte le informazioni passano e devono passare per la piattaforma, le cosiddette learning analytics sono in grado di pilotare l’insegnamento verso effetti attesi e misurabili e controllarlo ininterrottamente tramite algoritmi di predizione, individuando in tempo reale ciò che funziona, what works, e aggiustando in modo conseguente la “didattica erogata”. Seguendo la scia delle evidenze, è così possibile valutare i frame più efficaci, i pattern più impattanti, le lezioni, i docenti e gli studenti che funzionano, o anche «identificare» – in anticipo – «gli studenti a rischio di insuccesso» e «predire il successo accademico degli studenti stessi»9 (e dunque anche calibrare su questo la eventuale concessione di un prestito).
La nuova didattica a distanza ha perciò assai poco in comune con la tradizionale teledidattica (nel nostro paese, per capirci, quella del Consorzio Nettuno). Quel che la contraddistingue in maniera davvero innovativa non è in primo luogo la distanza fisica, la lontananza dei corpi, la proiezione fantasmatica di ombre su uno schermo – quel che insomma potrebbe farla sembrare aleatoria, dispersiva, sfuggente –, ma piuttosto lo steering at distance, il pilotaggio dell’insegnamento, vale a dire il dispositivo cibernetico di retroazione (feedback) che la in-forma per intero, la governa conducendola fuori dall’incertezza verso la realizzazione di un prodotto assicurato, un prodotto “di qualità totale”, adeguato a un mercato della “conoscenza” di dimensioni globali e in continua espansione.
Tutti noi, in un certo senso, quindi, facciamo già da lungo tempo didattica a distanza ed evidence-based, cioè governata a distanza e data-driven. La stessa “assicurazione della qualità dei corsi di studio”, la presentazione dell’offerta formativa con corsi “orientati a risultati misurabili”, il fatto che l’insegnamento venga analizzato in termini di input e output10 e attraverso indicatori di varia specie, rendono “a distanza” la nostra didattica da molto prima dell’ultima accelerazione. Sempre più persone che mai avrebbero pensato di muoversi, giudicare e fondamentalmente decidere seguendo logiche evidence-based, orientate al risultato, sono catturate – enveloped11 – in una rete di dispositivi gestionali ibridi che sono appunto «qualcosa di mezzo tra uno strumento politico e un accertamento scientifico»12, tra una tecnologia politica e una tecnologia scientifica.
Le “tecnologie invisibili” sono questo – gli apparati e gli strumenti di gestione, dove l’azione di chi vi prende parte è alla fine «guidata più dai riflessi che non dalle riflessioni»13: a catena, sotto la veste della razionalità, si innescano comportamenti irriflessi, il cambiamento dell’ambiente – la sua messa in trasparenza, la sua remissione all’evidenza – spinge a un cambiamento di habitus.

 

3. Evidenza e verità

È abbastanza chiaro, ora, come nelle EPB si assista a un cambiamento nel concetto stesso di evidenza, che fa aggio sulla falsa o quasi falsa amicizia tra il termine inglese “evidence” e quello italiano e continentale “evidenza”. Nell’accezione dominante nella nostra tradizione filosofica, la evidentia è legata al videre, all’intuizione, sia essa sensibile o eidetica: alla Augenschaulichkeit (quella che invero Heidegger giudica effetto di un’impropria traduzione della enàrgheia greca, il vigere della presenza14). All’opposto, il concetto di evidenza che regge le EBP è un concetto statistico, che se da un lato astrattamente innalza la soglia della certezza, dall’altro spezza – a qualunque livello – il legame con la visione, affidandosi a una cieca cattura di dati, un mining che li scava fuori da immensi e oscuri giacimenti e li consegna ad una vertiginosa capacità computazionale di ordine probabilistico, chiara per quanto riguarda il risultato che ha di mira ma affatto impenetrabile nel suo funzionamento.
Nella distribuzione dei prodotti negli scaffali di un supermercato è provato, è un’evidenza, che la posizione delle birre accanto ai pannolini fa aumentare le vendite15. Sapere perché è uno sforzo superfluo. Magari ci si può arrivare, ma è irrilevante. In effetti, è un approccio che adottiamo spesso anche nella normale prassi quotidiana, nei tanti casi i cui, sulla base di un sapere tacito o irriflesso, ci affidiamo a correlazioni apparentemente prive di cogenza. Per fare un esempio estremo, se in auto ci troviamo davanti un guidatore che indossa il cappello, in genere ci aspettiamo che sia lento e impacciato, e cercheremo di togliercelo davanti appena possibile; non importa il perché, ma volendo possiamo ricostruire un nesso: uno che guida col cappello forse è un anziano, o caratterialmente un tipo prudente, che guida piano… Ma come dobbiamo orientarci davanti alla documentata correlazione tra la quantità di formaggio acquistato e la probabilità di morire strangolati dalle lenzuola nel letto?16 O tra la lunghezza media del pene in un paese e il suo tasso di crescita economica?17 Sono relazioni che si possono ignorare, o anche ci si può ridere su. Ma già diverso, ovvero con conseguenze diverse, è non sapere il perché dell’efficacia di un farmaco scoperta grazie all’incrocio di grandi basi di dati statistici. E diverso ancora il caso di algoritmi predittivi nell’apprendimento.
Eppure, è proprio questa assunzione in positivo del “buio” della black box a fare la forza dei sistemi evidence-based – e a definire il loro decisivo punto di contatto con il governo cibernetico e/o algoritmico, diretto all’assicurazione del risultato prefissato anche quando non sia possibile avere cognizione adeguata di quanto accade all’interno di un sistema complesso.
«Nella cibernetica», osserva Stafford Beer, «abbiamo a che fare con sistemi […] così complicati da essere indescrivibili nel dettaglio. Per prendere in considerazione la possibilità del controllo di tali sistemi, dobbiamo essere in grado di immaginare un meccanismo di controllo che […] sia capace di affrontare problemi che non ci sono noti». Questo meccanismo è il «regolatore di feedback», «garantito per funzionare non contro un solo dato tipo di disturbo, ma contro tutti i tipi di disturbo»: ossia per tenere «sotto controllo un gran numero di fonti di possibili variazioni», e «in particolare […], i disturbi del sistema le cui cause sono sconosciute»18.
Ancora una volta può sembrare di trovarsi dinanzi a una contraddizione: da un lato il controllo continuo, il monitoraggio sistematico di tutto quanto accade nell’ambiente, la trasparenza totale, la rivendicazione rigorosa di non aver altro fondamento che la luce dell’evidenza; dall’altro la decisiva consapevolezza che la forza di un sistema evidence-based consiste, in realtà, nel fatto che non vi è bisogno di venire in chiaro di quanto accade al suo interno per poterlo controllare, ovvero per potersi assicurare la certezza del risultato.
Il punto è che evidentia ed evidenza statistica si rapportano alla “verità” in maniera del tutto differente. L’evidenza statistica non è affatto riguardata dalla, o interessata alla “verità”, non ha sguardo o riguardo per essa in quanto tale, ma esclusivamente per l’impiego della verità, nella sospensione di ogni altro riferimento ad essa. Quel che conta nelle EPB è il raggiungimento di un obiettivo e quindi il controllo matematico-cibernetico dell’ambiente in previsione di esso, una certezza matematica del risultato nel senso etimologico dell’anticipazione19 – dove la norma per l’ottimizzazione del sistema (i.e. la matematica in grado di scoprire, data una funzione, l’input che genera il massimo output) comanda la riduzione della complessità, degli input, fino ad un programmatico arretramento della conoscenza: massimo output con minimo input. E in effetti le “evidences” sono anzitutto, appunto in quanto prodotti statistici, dei prodotti matematici: il risultato di un’opera meccanica di raccolta, purificazione e astrazione di dati e di “agnostici” algoritmi di correlazione, nella programmatica messa tra parentesi di qualsivoglia orizzonte di significatività: la rete di rimandi entro la quale il dato si trova imprigionato, nella concretezza dell’esperienza, costituisce anzi un intralcio.
In questo senso Antoniette Rouvroy e Bernard Stigler – in Il regime di verità digitale. Dalla governamentalità algoritmica a un nuovo Stato di diritto – fanno ben osservare come, in un orizzonte foucaultiano, il nuovo regime di «governamentalità algoritmica» – proprio dell’“evidenza”, della datafication e infine del dataism – corrisponda a una crisi del concetto stesso di «regime di verità» e ad un cambiamento radicale, un vero e proprio salto nel nostro orientamento nel mondo: 

I Big Data segnano il passaggio di una soglia […] a partire dalla quale con la nostra razionalità moderna non capiamo più nulla, se consideriamo la nostra razionalità come la facoltà di comprendere i fenomeni legandoli alle loro cause. Si è così costretti ad abbandonarla, a favore di una sorta di razionalità postmoderna puramente induttiva, che rinuncia alla ricerca delle cause dei fenomeni e mira semplicemente a prevenirne – anticiparne – in qualche modo la comparsa20. 

Di fronte all’evidenza orientata al risultato e alla risoluzione di problemi, persino le connessioni causali – non solo quelle di ordine teleologico – sono sovrastrutture. Come già Heidegger aveva colto, 

per mezzo delle rappresentazioni che guidano la cibernetica […], vengono modificati […] in modo inquietante quei concetti chiave – come principio e conseguenza, causa ed effetto – che hanno finora dominato nelle scienze […]. La verità delle categorie si misura dall’effetto che produce il loro impiego […]. La verità scientifica viene posta come equivalente all’efficacia di questi effetti21.

Persino la presenza del dato oggettivo nell’atomizzazione estrema richiesta dal calcolo cibernetico «ha perduto […] il suo senso di oggettività. Ciò che è presente riguarda l’uomo d’oggi come qualcosa che si può sempre impiegare»22. Ogni ulteriorità che trascende il dato nella sua monadica purezza operazionalizzabile (e interoperabile) risulta tanto più ingiustificata quanto più si accresce la massa di dati e conseguentemente migliora l’autonoma capacità dei dati di produrre da sé dati. Quanto più si accresce la massa di dati, infatti, tanto più si rafforza quella vera e propria automazione dell’automazione che va sotto il nome di machine learning e consiste nel «processo di ottimizzazione»23 attraverso il quale gli algoritmi di apprendimento realizzano, senza supervisione umana e a grande velocità, scoperte sempre più libere dall’errore, avanzamenti risolutivi senza più «il collo di bottiglia dell’acquisizione di conoscenza»24. Là dove, «la Rivoluzione industriale ha automatizzato il lavoro manuale, e la rivoluzione dell’informazione ha fatto lo stesso con quello intellettuale […], il machine learning, invece, automatizza l’automazione stessa: se non ci fosse, i programmatori diventerebbero i colli di bottiglia che frenano il progresso»25.
Se già nella cibernetica wieneriana l’«uomo è un fattore di disturbo»26, oggi persino quel che dell’uomo resta, anzi quel che resta dello stesso soggetto della conoscenza, è elemento di disturbo e fonte di errore. Ma l’errore può essere soppresso, ed è di fatto soppresso; solo però perché soppresso in linea di principio, o più precisamente fin da principio, perché viene cioè soppressa ogni richiesta di verità. In altri termini, l’errore viene ricondotto al semplice disallineamento tra la risposta effettiva e quella voluta, tra l’output ottenuto e quello programmato: ridotto quindi a semplice mancato controllo, il quale ultimo può subito riprendere la propria corsa – “tentare” nuovamente senza necessità alcuna di domandare “perché?” – “imparando” senza conoscere e progredendo velocemente tramite “modellizzazione”, potendo «generalizzare a casi mai visti prima»27.
È qui sublimata, portata al massimo della rarefazione fino al dissolvimento sub specie computatralis evidentiae, quel tipo di conoscenza da tempo definita come mode 228, vale a dire la trasformazione della «conoscenza scientifica […] da “conoscenza orientata alla verità” in conoscenza praticamente “orientata all’utilità” e centrata su ciò che funziona»29. Slegate da ogni Verstehen così come da ogni Erklären, le «evidentiary technologies productive of truth» ottengono grandi risultati galleggiando sulla superficie del puro dato informazionale, sfornano soluzioni setacciando bit in un induttivismo cieco, conseguono scoperte seguendo movenze aliene, impenetrabili all’intelligenza umana, non a causa tuttavia dei limiti di questa quanto piuttosto perché esse stesse sono, per dire così, “idiote”. Le “evidences” emergono demolendo strutture di senso, demolendo ciò che costituisce per noi l’intelligenza, la nostra intelligenza, estromessa anche dalla stessa funzione di garante dell’affidabilità della “conoscenza evidente”, fino a metter capo a quel che Bernard Stiegler ha descritto come una «proletarizzazione» del pensiero: un destino di «bétise sistemica»30 che sembra essere il prezzo inevitabile di un alleggerimento della conoscenza talmente efficace che a nessuno potrebbe sembrare giustificato rinunciarvi.

 

4. Seaheaven

Il problema potrebbe anche non porsi proprio, se questa atomizzazione – e, dal nostro punto di vista, impoverimento – riguardasse soltanto, per così dire, la superficie dei fenomeni, messi sotto una lente che li lascia intatti nella loro struttura, come quando inquadriamo la luna in un telescopio o un pezzo di minerale sotto un microscopio e siamo propensi a credere che questo guardare conoscitivo modifichi il nostro sguardo ma lasci per certi versi intatta la materia osservata. Quando ci affidiamo però all’evidenza nel senso dell’evidence-based, la messa fuori gioco dell’intelligenza, del “metodo” (tanto quel che conta è arrivare presto e al minor costo dove si deve arrivare, non importa per quali vie) non consiste solamente in una sorta di paradossale epoché conoscitiva dell’intellezione, in un momento di vuoto e sospensione. Nelle EPB, l’evidenza è immediatamente operativa, provoca le pratiche cui presiede. Nel governo evidence-based (e ogni ambito evidence-based, in quanto in radice operativamente strutturato da evidence-based policy-making e decision-making, è un ambito di governo) anche il calcolo, l’informazione non è semplicemente una raccolta a valle, la classica quantificazione statistica necessaria all’esercizio consapevole del potere, i tableaux al servizio di una politica informata su quello che accade intorno. Le EPB determinano piuttosto una politica in-formata, dove la matematica diviene «la fonte stessa delle regole che determinano l’orientamento e il contenuto delle decisioni politiche»31, sottratte al confronto tra le alternative – tra vere alternative, che sono tali in quanto capaci di irrompere come qualcosa di effettivamente altro, e non semplici opzioni predefinite all’interno di un menù fisso o anche variabili non note all’interno però di un range ben definito di sistema.
Se è vero che ciò che interessa alla EPB è unicamente il basso grado di entropia nel senso dell’abbassamento dell’incertezza, non un cosmo ordinato che immobilizzi le variabili del sistema (le stesse che generano valore e che rese inerti determinerebbero una caduta tendenziale del valore stesso), è nondimeno altrettanto vero che l’evidenza, l’«entropia negativa»32 come informazione che questo doping della scienza è chiamato a fornire, agisce anche sempre invisibilmente come controllo dell’ambiente. Ed è proprio questa capacità tecnica di controllo dell’ambiente – della realtà, non della mera conoscenza – a costituire la forza obbligante di questa evidenza.
Con ciò risulta pressocché compiuto lo spostamento della prova scientifica verso quel che Lyotard chiama «amministrazione della prova»33, vale a dire la capacità, eminentemente tecnica, di far valere la “realtà” quale referente che decide con la “sua” forza la verità di un nuovo enunciato. Impadronirsi della realtà, governare l’ambiente, ciò ch’è possibile tramite le tecniche, significa impadronirsi di ciò che costituisce la prova (evidence) come base fattuale per l’argomentazione “scientifica”, con tutto quel che deriva dalla legittimazione scientifica – o presuntamente tale – per la legittimazione politica: 

prende così forma la legittimazione attraverso la potenza. Questa non è solo la buona performatività, ma anche la buona verificazione ed il buon giudizio. Essa legittima la scienza e il diritto attraverso la loro efficienza, e la seconda attraverso i primi. Si autolegittima apparentemente allo stesso modo di un sistema regolato sull’ottimizzazione delle proprie prestazioni. Ora ciò che dev’essere garantito dall’informatizzazione generalizzata è precisamente questo controllo sull’ambiente […]. Attualmente quindi l’accrescimento della potenza, e la sua autolegittimazione, passa attraverso la produzione, la memorizzazione, l’accessibilità e l’operabilità delle informazioni34.

È questo il carattere palindromico dell’evidence-based practice o dell’evidence-based policy, per il quale essa è strutturalmente policy-based evidence: non la forza obbligante del vero ma forza di tecnologie produttive di evidenza, anonime e invisibili, all’apparenza immateriali, ma assai materialmente in potere di chi detiene i “mezzi” di produzione delle evidenze, da far valere nel discorso politico come “realtà”, cioè come base fattuale per comprovare l’argomentazione scientifica.
Da questo punto di vista l’orizzontalità della rete, dei percorsi lungo i quali la “mente si estenderebbe” non realizza nessuna delle utopie che suscita – men che mai il sogno di un teatro che vede sulla scena diversi attori versatilmente comunicanti, liberamente proattivi, sottratti a un’autorità centralizzata, autonomi fino all’anarchia35. Il panopticon digitale congruente con le esigenze di massima mobilità del «nuovo spirito del capitalismo»36 resta, pur (anzi proprio) elevando a norma la libertà, una casa di sorveglianza che ha tradotto in pratica rigorosa la lezione della cibernetica classica (I e II generazione): meccanismo di feedback e black box. Per questo, quando parliamo di EPB in realtà parliamo né più né meno che di un “governo cibernetico”, nella forma e nelle conseguenze immediatamente previste dai più acuti lettori di Wiener, a partire dalla fulminante recensione del padre Dominque Dubarle apparsa su «Le Monde» del dicembre 1948. Non le meravigliose maverick machines, il Musicolour di Gordon Pask37, ma, per Dubarle, una infernale machine à gouverner, che consegna il mondo alla

incertezza fra un indefinito stato di convulsione nella vita sociale e il sorgere di un prodigioso Leviatano, al cui confronto il Leviatano di Hobbes non fu che un piacevole scherzo. Noi rischiamo oggi un’enorme città mondiale in cui l’ingiustizia primitiva deliberata e consapevole sarebbe l’unica condizione per la felicità statistica delle masse, un mondo che apparirà a qualsiasi mente lucida peggiore dell’inferno38.

Oggi tutto questo, il crescere delle disuguaglianze e la concentrazione senza precedenti di potere informativo su scala globale, viene definito, con la formula fortunata di Zuboff, Capitalismo della sorveglianza – una «fusione tra capitalismo e rivoluzione digitale senza precedenti»39 –, o, con la maggiore penetrazione filosofica di Rouvroy e Stiegler, Governamentalità algoritmica. Giustamente Evgeny Mozorov, tra i pochissimi critici del libro di Zuboff, osserva come tutta la tematica del surplus comportamentale in esso sviluppata non sia nulla di più che una «non riconosciuta riproposizione dei meccanismi di feedback dibattuti dalla cibernetica nel 1940»40. Anche Rouvroy e Stigler si concentrano sull’avvento della rete e l’esplosione dei big-data e si deve loro la tesi già ricordata per la quale – a dispetto della nozione di governamentalità presa in prestito da Foucault – la «governamentalità algoritmica» non rappresenterebbe un nuovo «regime di verità», ma segnerebbe la fine dell’idea stessa di «regime di verità»41, dove la verità e le categorie che da sempre vi si accompagnano semplicemente diventano superflue.
Eppure, una riflessione sul rapporto tra vero e la forza obbligante del vero, tra il vero e il dover-essere del vero che piega all’assenso verso di esso, potrebbe costituire ancora la base teorica per venire in chiaro dell’impalcatura etico-valoriale di sostegno anche al nuovo capitalismo. Sul puro calcolo, sul semplice profitto (reale per pochi e promesso ai più), infatti, neppure il capitalismo più disincantato o cinico può reggere. Ogni governo degli uomini deve rassicurare e giustificare, offrire un coinvolgimento, una promessa di felicità, in qualche modo entusiasmare chi vi è soggetto (si tratti di un entusiasmo religioso o parareligioso, o anche, irreligioso) e specialmente chi vi è soggetto nel modo più duro. Sotto questo profilo, nessuna end of theory può completarsi. Il capitalismo non funziona semplicemente perché funziona. La sua riuscita è possibile perché il suo ordine è reso tollerabile, accettabile, sostenuto dagli stessi «attori necessari alla formazione dei profitti»42 attraverso narrazioni, valori, rituali – ovvero perché è soggetto esso stesso a «convenzioni che aspirano a una validità universale», ad «un imperativo di giustificazione»43, e quindi in definitiva ad un regime di verità. Non continuare a interrogarsi su questo espone al rischio di indebolire la critica e la penetrazione dei problemi. 


Note
1 D. Beer, Metric Power, Palgrave Macmillan, London 2016, p. 153.
2 Per esempio, in riferimento all’esperienza della gestione della pandemia, il Ministro della Salute italiano dichiarava nel marzo 2022 che «in questi anni il ruolo del Cts è stato fondamentale, ha segnato un rapporto tra politica e scienza che dobbiamo sapere conservare per il futuro, perché si è più forti nelle decisioni che si assumono se esse sono basate sull’evidenza scientifica»(https://www.youtube.com/watch?v=maEKlGg2fDE). Affermazione che potrebbe sembrare soltanto poco cauta, disattenta e dettata dal clima generale di esasperazione, da parte di un ministro della salute fondamentalmente preoccupato per il benessere dei cittadini ma un po’ sprovveduto sul piano della riflessione politica; o all’opposto, l’affermazione di un politico attento e assolutamente consapevole della precisa valenza delle sue parole, seppure – in tutti i casi – un po’ in ritardo.
3 Cfr. R. Normand, The Changing Epistemic. Governance of European Education. The Fabrication of the Homo Academicus Europeanus?, Springer, 2016, p. 108: «Se anche la nozione di evidence non appariva direttamente nel Modernising Government White Paper (Cabinet Office 1999), le tecnologie dell’evidenza sono state diffuse dal 1999 in conferenze e pubblicazioni sotto la supervisione dell’Economics and Social Research Council (Parsons 2002). L’idea che la politica debba essere guidata dall’evidenza di What works è andata apparendo progressivamente nei rapporti governativi (Cabinet Office 2001a, b; National Audit Office 2001, 2003) […]. La concezione tecnocratica e strumentale dell’azione pubblica fu poi strettamente collegata con le politiche dell’accountability e il management delle performance, due pilastri della Terza Via (Le Galés and Facucher-King, 2010)».
4 Cfr. M. Heidegger, Filosofia e cibernetica (Zur Frage nach der Bestimmung der Sache des Denkens, 1984), trad. di A. Fabris, ETS, Pisa 1989, in part. p. 32, dove si prospetta il passaggio dell’unificazione sistematica tradizionalmente messa in capo alla filosofia appunto alla cibernetica, «la nuova scienza che unifica, in un senso nuovo di unità, tutte le varie scienze».
5 Cfr. C. Ducuing, A legal principle of innovation? Need for an assessment against the principle of democracy, in «Law, Innovation and Technology», 14, 2022, 2, pp. 237-266, Doi: 10.1080/17579961.2022.2113667.
6 M. Berry, Une technologie invisible? L’impact des instruments de gestion sur l’evolution des systemes humains, Rapport du CRG, Ecole polytechnique, Paris, 1983. Ma la dinamica tra visibilità del potere e potere della visibilità è una complessa «interazione tra forze potenzianti e depotenzianti della visibilità, [dove] in alcuni casi è potente essere visibili e depotenziante essere invisibili e in altri casi è potente essere invisibili e depotenziante essere visibili» (Beer, Metric Power, cit., p. 154).
7 J. Serebrin, Concordia University says lectures from dead professor are ‘teaching tool’, in «Toronto Star», Jan. 28, 2021.
8 Normand, The Changing Epistemic, cit., p. 95.
9 Dopo la riforma: università italiana, università europea? Proposte per il miglioramento del sistema terziario, Quaderno n. 13, Associazione Treellle. Per una società dell’apprendimento continuo, Genova 2017, p. 191.
10 Cfr. CAF Università, Il modello europeo di autovalutazione delle performance per le università, Fondazione CRUI, Roma, 2012 p. 61: «così come lo studente che si iscrive ad un corso di studio universitario costituisce l’input al processo formativo universitario (caratterizzato dal bagaglio di conoscenze e abilità acquisite nei processi formativi precedenti, che in tal senso costituisce a tutti gli effetti quello che potrebbe essere definito un “semilavorato pregiato in ingresso”), lo studente che si laurea costituisce l’output (il prodotto/risultato complessivo) del processo formativo universitario (caratterizzato dal bagaglio di conoscenze e abilità acquisite nel processo formativo universitario)». Non si può non notare la disinvoltura categoriale e terminologica, significativa della consolidata familiarità con l’approccio sistemico. D’altronde l’ambito dell’apprendimento rappresenta per la cibernetica un terreno di prova privilegiato.
11 Cfr. L. Floridi, Agere sine intelligere. L’intelligenza artificiale come nuova forma di agire e i suoi problemi etici, in L. Floridi – F. Cabitza, Intelligenza artificiale. L’uso delle  nuove  macchine,  Martini  Lecture,  Bompiani,  Milano 2021, pp. 161-162.
12 D. Pontille – D. Torny, The controversial policies of journal ratings: evaluating social sciences and humanities, in «Research Evaluation», 19, 2010, pp. 347-360, p. 358.
13 Berry, Une technologie invisible?, cit., p. 11.
14 Cfr. Heidegger, Filosofia e cibernetica, cit., p. 45.
15 Cfr. P. Domingos, The Master Algorithm. How the Quest for the Ultimate Learning Machine Will Remake Our World, Basic Books, New York 2015, pp. 69-70.
16 Cfr. https://tylervigen.com/spurious-correlations.
17 Cfr. T. Westling, Male Organ and Economic Growth: Does Size Matter?, University of Helsinki and HECER, Discussion Paper No. 335, Helsinki, July 2011.
18 S. Beer, Cybernetics and Management, English Universities Press, London, 1959, pp. 29-30.
19 Cfr. M. Heidegger, La questione della cosa (Die Frage nach dem Ding, 1984), trad. di V. Vitiello, Guida, Napoli 1989: «I mathèmata sono le cose in quanto noi […] prendiamo conoscenza di ciò che delle cose stesse propriamente conosciamo in anticipo» (p. 102); «La màthesis è quella prospettiva fondamentale nella quale noi ci pre-figuriamo le cose in base a ciò per cui esse ci sono già date» (p. 105).
20 A. Rouvroy – B. Stigler, Il regime di verità digitale. Dalla governamentalità algoritmica a un nuovo Stato di diritto, in «La Deleuziana», 3, 2016, pp. 6-29, p. 8.
21 Heidegger, Filosofia e cibernetica, cit., pp. 33-34.
22 Ivi, p. 37.
23 M. Maggesi, Una introduzione visiva al Machine Learning e al Deep Learning, in «Laboratorio dell’ISPF», XIX, 2022, 3, Doi: 10.12862/Lab22MGM, p. 12.
24 Domingos, The Master Algorithm, cit., p. 89.
25 Ivi, pp. 9-10.
26 Heidegger, Filosofia e cibernetica, cit., p. 34.
27 Domingos, The Master Algorithm, cit., p. 62.
28 Cfr. p. e. M. Olssen – M. A. Peters, Neoliberalism, higher education and the knowledge economy: from the free market to knowledge capitalism, in «Journal of Education Policy», 20, 2005, 3, pp. 313-345, Doi: 10.1080/02680930500108718, p. 330. Cfr. anche Normand, The Changing Epistemic, cit., pp. 44 sgg.
29 U. Felt, University Autonomy in Europe, University of Vienna, Wien 2001, p. 53.
30 B. Stiegler, «Le grand désenchantement». Un entretien avec le philosophe Bernard Stiegler, in «Journalism pensif», 21 février 2011.
31 A. Ogien – S. Laugier, Pourquoi désobéir en démocratie?, La Découverte, Paris 2011, p. 204.
32 Cfr. N. Wiener, La cibernetica. Controllo e comunicazione nell’animale e nella macchina (Cybernetics, or control and communication in the animal and the machine, 1948), trad. di G. Barosso, Il Saggiatore, Milano 1982, pp. 91 sgg.
33 Cfr. F. Lyotard, La condizione postmoderna (La conditione postmoderne. Rapport sur le savoir, 1979), trad. di C. Formenti, Feltrinelli, Milano 2014, p. 80 e passim.
34 Ivi, p. 86.
35 W. G. Walter, The development and significance of cybernetics, in «Anarchy», 25, 1963, pp. 75-89, p. 89.
36 Cfr. L. Boltanski – E. Chiapello, Le nouvel esprit du capitalisme, Gallimard, Paris 2011.
37 Cfr. J. Bird – E. Di Paolo, Gordon Pask. His Maverick Machines, in The Mechanical Mind in History, ed. by Ph. Husbands et al., The MIT Press, 2008, pp. 185-211.
38 D. Dubarle, Une nouvelle science, la cybernétique: vers la machine à gouverner, in «Le Monde», 28.12.1948, p. 47. In proposito V. Pinto, Tecnologie ambientali di governo. Dalla machine à gouverner alla governamentalità algoritmica, in corso di pubblicazione nei “Quaderni di Mechane”, Mimesis.
39 S. Zuboff, Capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, (The Age of Surveillance Capitalism. The Fight for the Future at the New Frontier of Power, 2019), trad. di P. Bassotti, Luiss University Press, Roma 2019, p. 38.
40 E. Mozorov, Capitalism’s New Clothes, in «The Baffler», 4.2.2019, https://thebaffler.com/latest/capitalisms-new-clothes-morozov.
41 Cfr. Rouvroy – Stigler, Il regime di verità digitale, cit., p. 7 e passim.
42 L. Boltanski – E. Chiapello, Le nouvel esprit du capitalisme, cit., p. 46.
43 Ivi, p. 63; cfr. anche L. Boltanski – L. Thévenot, On Justification: Economies of Worth, Princeton, Princeton University Press, Princeton 2006.

 

Pdf del testo

 

 

Categoria: Temi (II) | RSS 2.0 Commenti e pingback sono attualmente chiusi.

Nessun commento

I commenti sono chiusi.

Accedi | Gestione | Alberto Giovanni Biuso e Giusy Randazzo © 2010-2024 - Periodico - Reg. Trib. Milano n. 378 del 23/06/2010 - ISSN 2038-4386 - Rivista scientifica per l’Area 11 – Scienze storiche, filosofiche, pedagogiche e psicologiche.

Free hit counters