Dalle reti sociali alle relazioni tra proteine: nuovi metodi matematici per “semplificare” il mondo

Servono a scalare la rappresentazione di sistemi complessi ottenendo sistemi più semplici da studiare, ma con le stesse proprietà dell’originale.

teoria dei grafi
L’illustrazione è pubblicata per gentile concessione di Raffaella Mulas, ricercatrice e docente alla Vrije Universiteit Amsterdam, che ne è l’autrice. Rappresenta una figura femminile fatta di grafi che interagisce con le costellazioni stellari, anch’esse rappresentate come grafi.

I collegamenti tra le diverse persone su un social network, l’architettura alla base di molte intelligenze artificiali, i modi in cui le diverse proteine interagiscono tra di loro all’interno della cellula: tutti questi sistemi, all’apparenza molto diversi tra di loro, possono essere studiati schematizzandoli con lo stesso tipo di struttura, ovvero il grafo. La rappresentazione per grafi si basa sulla interazione diretta tra coppie di agenti di un sistema, chiamati “nodi”. Due amici in contatto su un social network, due neuroni che scambiano informazione in una rete neurale biologica o artificiale, o due proteine che condividono una certa espressione genica possono essere schematizzati come due nodi uniti tra loro da una relazione diretta, definita “arco”.

L’ipergrafo è un’estensione naturale di questa descrizione, in cui non si considerano soltanto interazioni di coppia ma anche interazioni (simultanee) tra tre o più agenti. In questo modo è possibile includere nei modelli le interazioni ad alto ordine, ovvero che coinvolgono più di due nodi alla volta, che normalmente per semplicità vengono ignorate, ma che contribuiscono ad una descrizione più accurata dei processi.

Due nuovi articoli a firma dell’unità di ricerca Networks, uno pubblicato su Nature Physics e dal titolo “Higher-order Laplacian Renormalization”, e uno pubblicato su Nature Reviews Physics e dal titolo “Network Renormalization”, discutono nuovi metodi proprio per semplificare e scalare grafi e ipergrafi, con possibili applicazioni in tutti gli ambiti che usano questo strumento, quindi dalle già citate reti sociali alle reti neurali dell’intelligenza artificiale, passando per la biologia cellulare.

Per capire questo risultato è necessario fare un passo indietro, partendo innanzitutto dal concetto di rinormalizzazione citato nei titoli di entrambi i papers. Più propriamente si dovrebbe in realtà parlare di gruppo di rinormalizzazione, una tecnica che arriva dalla fisica teorica. “Quella del gruppo di rinormalizzazione è una storia molto antica in fisica moderna” confermano Tommaso Gili e Diego Garlaschelli, rispettivi corresponding authors dei papers appena usciti. Di fondo, il concetto di rinormalizzazione è l’idea che certe caratteristiche di un sistema fisico, come un insieme di particelle che interagiscono tra di loro o un materiale che subisce una transizione di fase, siano scalabili, e che si possa quindi studiarne una versione più semplice per capire le proprietà del sistema originale.

Versioni più semplici

Prendendo l’esempio delle particelle elementari che interagiscono, “in certe condizioni è possibile” spiegano Gili e Garlaschelli “immaginare di raggrupparle in macro-strutture passando, per esempio, da mille a cento particelle, per poter riscalare il sistema”. Questo processo, “una delle più grandi conquiste della fisica moderna”, prevede di base una serie di condizioni di regolarità, una natura ordinata con un sistema di coordinate chiaro. Purtroppo questo non è sempre vero, e rende difficile quindi estendere il concetto di rinormalizzazione a sistemi disordinati, caratterizzati da elementi che non possono essere descritti da uno spazio geometrico e regolare, ma che sono piuttosto descritti da un grafo, appunto, attraverso le loro relazioni.

“Diverse strade sono state percorse per cercare di generalizzare l’applicabilità del concetto di rinormalizzazione anche a sistemi disordinati”, spiega Garlaschelli, direttore dell’unità di ricerca Networks della Scuola IMT, “e due degli approcci che si sono rivelati di maggior successo sono stati sviluppati, indipendentemente l’uno dall’altro, proprio qui nella nostra unità di ricerca”. 

Uno di questi approcci, discusso insieme agli altri metodi nel paper pubblicato su Nature Reviews Physics e proposto in un articolo precedente, vede le reti come oggetti intrinsecamente caratterizzati da fluttuazioni statistiche, che è poi l’idea alla base di tutti i modelli matematici probabilistici. “Quando i nodi di una rete vengono aggregati producendo versioni più piccole e differenti della stessa rete, un qualunque modello di grafo probabilistico si trasforma inevitabilmente in un altro modello probabilistico, in generale diverso dal primo”, spiega Garlaschelli. “Ci siamo quindi chiesti: quale dei due modelli è quello corretto, visto che entrambi vogliono descrivere lo stesso sistema, a livelli di risoluzione diversi? Abbiamo allora seguito un approccio radicale: abbiamo cercato un modello probabilistico di grafo che non cambiasse al variare della scala di osservazione, ovvero che si trasformasse in se stesso dopo il riscalamento della rete. E l’abbiamo trovato.”

La teoria avanza

Il modello così identificato è anche l’unico nel suo genere, e nel linguaggio della fisica statistica rappresenta un cosiddetto “punto fisso” (ovvero un elemento che si trasforma in se stesso) del gruppo di rinormalizzazione. Questo modello costituisce non solo un avanzamento teorico, ma anche un nuovo metodo per analizzare le reti in assenza di informazioni complete. Ad esempio, conoscere la struttura delle reti tra imprese è cruciale per stimare correttamente il rischio di propagazione di stress economici nel sistema produttivo. Eppure, per motivi di confidenzialità queste reti sono di solito osservabili solo a scale molto aggregate, ovvero tra industrie o addirittura tra interi settori. Usando il modello di “punto fisso” trovato da Garlaschelli e collaboratori, è possibile “invertire la rotta” e passare dalla rete aggregata a un insieme probabilistico di reti disaggregate con essa consistenti. Su queste reti disaggregate, è poi possibile studiare la propagazione di stress e informazione, e fare predizioni molto più accurate di quelle che si ottengono a partire dalla rete aggregata.

Anche per il secondo approccio, descritto nel paper pubblicato su Nature Physics, si deve partire da un lavoro precedente: “Negli anni si è cercato di trovare il gruppo di rinormalizzazione studiando la dinamica con cui l’informazione viaggia e si diffonde per i vari nodi della rete”, spiega Gili. “Due anni fa, lo abbiamo trovato”. La tecnica scoperta allora studia infatti il cosiddetto “operatore laplaciano” che descrive matematicamente proprio le dinamiche di diffusione: “Si può immaginare questo sistema disordinato, questa rete, come una serie di sorgenti, ovvero i nodi, con le connessioni che sono come dei tubi, attraverso cui scorre un fluido. Facendo partire la diffusione di questo fluido da tutti i nodi della rete, si va a vedere come si diffonde”.

Visualizzare questa dinamica permette di capire le proprietà del grafo che non cambiano anche scalandolo, anche raggruppando tra di loro dei nodi, per ottenere un grafo quindi meno complesso, più facile da comprendere e studiare, con le medesime proprietà complessive del grafo originale.

Dai grafi agli ipergrafi

Il nuovo lavoro parte da questa soluzione e la estende agli ipergrafi, che come abbiamo visto, a differenza dei grafi normali, prevedono degli archi non solo tra due nodi, ma anche contemporaneamente tra tre, quattro o più nodi. “L’interazione chiusa a due è un segmento, un edge con due nodi; quella a tre è un triangolo; a quattro, con quarto nodo, hai un tetraedro; e può crescere all’infinito.”

L’intuizione che ha portato al nuovo risultato riguarda la possibilità di prendere un ipergrafo e trattare gli ordini superiori come se si trattasse di un grafo ”semplice”, per poter poi applicare il metodo già trovato nel paper precedente. “Ci siamo inventati questo strumento” spiega Gili “che si chiama laplaciano cross-order, che consente di descrivere il processo immaginando che sia sempre una struttura tipo nodi ed edge”. Se per esempio ho un’interazione a quattro nodi, visualizzabile graficamente come un tetraedro, è trasformabile in un nuovo grafo di nodi e edge “semplici”, dove i nodi rappresentano le facce triangolari del tetraedro e l’edge i collegamenti tra le facce con un lato in comune.

I processi di rinormalizzazione descritti nei due articoli consentono di identificare la possibile presenza, ai vari ordini, di una invarianza di scala. “Una invarianza di scala è importante perché, quando si crea una rappresentazione semplificata di una struttura con una certa topologia (coarse graining in termini tecnici), la struttura rimane la stessa. L’invarianza di scala è legata a proprietà di interazioni molto particolari e diverse da quello che si osserva nei sistemi regolari ed omogenei”, spiegano Gili e Garlaschelli. 

Dalla biologia all’intelligenza artificiale

Oltre al caso dei sistemi sociali ed economici, questi studi vedono possibili applicazioni in ambiti come l’intelligenza artificiale e la biologia. Nel primo caso, il focus è sulle reti neurali addestrate per il Deep Learning, utilizzate ad esempio per il riconoscimento di immagini. “Con una rete con migliaia di nodi ad ogni strato, è possibile immaginare di fare un rescaling, quindi raggruppare i nodi, e vedere se esiste una scala di rinormalizzazione a cui si può scendere, per ridurre lo sforzo di calcolo necessario ad utilizzare la rete, ottenendo però comunque lo stesso risultato”.

Un altro caso di possibile applicazione sono, in biologia, la rete delle interazioni tra proteine all’interno di una cellula (Protein Interaction Networks). “L’interazione tra le proteine può essere rappresentata come una rete, in cui si possono creare dei raggruppamenti da riscalare sulla base di varie caratteristiche, per esempio proteine e geni che svolgono una funzione analoga tra loro. Per esempio, in un batterio come Escherichia Coli, si può ottenere una struttura a sua volta suddivisibile in sottostrutture in cui le proteine hanno un compito affine, come il trasporto di energia e lo scambio di ossigeno”. Tutti modi molto attuali e concreti di utilizzare strumenti matematici con una storia antica. 

Jasmine Natalini

Potrebbero interessarti anche

SocietàTecnologia e Innovazione

Intelligenze artificiali, errori umani

Quando l’AI sbaglia: perché accade, e come evitarlo.

SocietàTecnologia e Innovazione

Dove ci porterà l’intelligenza artificiale

L’AI Index Report 2023 fotografa lo stato della tecnologia più discussa del momento.

SocietàTecnologia e Innovazione

Il fact-checking: che cos’è? come funziona? quanto funziona?

Dopo la decisione di Meta di modificare le sue politiche di moderazione dei contenuti, una riflessione sulla ricerca in corso per combattere la disinformazione online.

SocietàTecnologia e Innovazione

Dentro la scatola nera dell’intelligenza artificiale

Gli algoritmi black box danno risposte, ma non spiegazioni. Ecco come funzionano e quando è meglio utilizzare alternative “trasparenti”.