Ragione, probabilità e innovazione

Google Translate, ovvero la possibilità di conoscere in tempo reale il significato di parole, frasi o interi brani di una lingua poco o del tutto sconosciuta, è forse uno dei servizi più sorprendenti e utilizzati dagli internauti. La possibilità di tradurre da e in lingue straniere è davvero uno dei simboli del futuro che si avvera, uno strumento fino ad ora incontrato solo nei film di fantascienza.

Nella realtà, il traduttore universale è la parte visibile di un algoritmo dal nome word2vec: ovvero una sequenza di istruzioni che assume una parola in quanto funzione vettoriale. Ogni vocabolo è un’equazione algebrica, cosicché la traduzione avviene semplicemente per combinazione probabilistica, in base ai termini che precedono o seguono ogni lemma. Il programma traduce perché è in grado di prevedere il significato di una parola basandosi su quelle che la circondano, ovvero non avviene alcuna forma di traduzione, bensì una semplice sostituzione di valori algebrici in base alle correlazioni più probabili.

La capacità di un multilinguismo lineare si regge su un’ipotesi algoritmica, che verte sull’idea che la realtà possa essere espressa in rapporti perfettamente misurabili ed univocamente esprimibili. La premessa e la tendenza di tale visione sono le correlazioni statistiche, ovvero dei nessi probabilistici, che però «non procedono più dalla causa alla conseguenza, bensì, a partire dalle conseguenze, risalgono a una valutazione delle probabili cause.»[1]

I motori di ricerca hanno elevato la probabilità a criterio di verità, cioè hanno sostituito la ricerca della causa con l’analisi dei dati. È il paradosso del mondo digitale: la quantità eccessiva di dati non favorisce il raggiungimento della causa, bensì assume la probabilità come principio di investigazione della realtà. Sebbene la visione algoritmica non preveda il futuro, ma dice ciò che può attendibilmente accadere, quel che la potenza del calcolo modifica è il quadro cognitivo soggettivo e il sistema valoriale della società, «la società dovrà abbandonare almeno in parte la sua ossessione per la causalità in cambio di correlazioni semplici: non dovrà più chiedersi perché, ma solo cosa[2]

Nel loop algoritmico quel che si perde è proprio la singolarità, inglobata all’interno di un’analisi numerica che la cancella.

I desideri del singolo si perdono nei bisogni dei molti

Un algoritmo processa i dati fino a quando non trova un valore che abbia una rilevanza statistica, ovvero si avvita in un loop che si esaurisce solo quando estrae un criterio interpretativo, eppure anche l’estrazione di informazioni utili per il calcolo predittivo non è così semplice. Gli sviluppatori dell’intelligenza artificiale indicano con il termine learnability la capacità di un algoritmo di fare previsioni su un grande insieme di dati, ma usandone solo una parte più piccola. Tale ipotesi si scontra con il problema di Cantor, ovvero che esistono infiniti modi per poter scegliere l’insieme più piccolo, così la connettività statistica perde la propria validità proprio grazie all’accumulo dei dati, che è poi il fondamento su cui si regge. In un recente articolo la learnability è messa in scacco proprio dall’eccesso di informazioni: «when trying to understand learnability, it is important to pay close attention to the mathematical formalism we choose to use […] the source of the problem is in defining learnability as the existence of a learning function rather than the existence of learning algorithm. In contrast with the existence of algorithm, the existence of functions over infinite domains is a (logically) subtle issue»[3]

L’accelerazione tecnologica degli ultimi anni e la relativa crescita dell’interpassività dell’uomo ricalca una prassi evolutiva dell’uomo, «a un certo punto della loro storia evolutiva gli esseri umani hanno generato una cultura che non era più solo assistita da strumenti, bensì dipendente da strumenti. La loro cultura dipendeva dall’esistenza di  quegli strumenti, così come la loro capacità di pensare, di organizzare, di capire. La loro tecnologia era diventata di fatto parte del loro pensiero, non solo a livello concettuale, ma probabilmente anche a livello strutturale, generando un’estensione delle loro capacità organiche.»[4]

Chiave di lettura è il ruolo dell’innovazione, giacché se non è concepibile una società che non innova e quindi si rinnova, è altrettanto pericoloso un’estensione del concetto di innovazione oltre il suo limite, perché «un eccesso di innovazione può far crollare la società in uno stato disfunzionale, dove la novità non riesce a mantenere il giusto passo con l’adattamento alle nuove regole e alle nuove capacità, generando disequilibri e problemi di ogni sorta.»[5]


[1] Mayer Schönberger V., Cuvier K., Big Data, Garzanti, Milano, 2013, p. 16.

[2] Cardon D., Che cosa sognano gli algoritmi. Le nostre vite al tempo dei big data, Mondadori Education, Milano, 2016, p. 31.

[3] Ben-David S., Hrubes P., Moran S., Shpilka A., Yehudayoff A., Learability can be undecidable, in Nature Machine Intelligence, Vol. I, January, 2019, p. 48.

[4] Bruner E., La mente oltre il cranio. Prospettive di archeologia cognitiva, Carocci editore, Roma, 2018, p. 104.

[5] ivi, p. 105.

2 thoughts on “Ragione, probabilità e innovazione

  1. Viagra Welche Dosierung Cialis Por Mayoreo Viagra Comprar Viagra Generico [url=http://drugslr.com]where to buy cialis online safely[/url] Zenegra Tadalafil For Sale

  2. Purchasing Domperidone Mexico Pharmacy [url=http://gnplls.com]levitra 40 mg[/url] Unterschied Zwischen Propecia Und Proscar I Wish To Purchase Amoxicillin Online Deltasone Generic

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *