L’AI generativa per trovare l’elisir di lunga vita
di: Gabriele De Palma

Tra gli imprenditori della Silicon Valley si agita lo spettro di un’idea che affonda le radici nella notte dei tempi dell’umanità, quella dell’elisir di lunga vita. Oggi, anziché chiamarsi amrita come nei Veda indiani del XV secolo avanti Cristo o ambrosia come presso gli antichi Greci, viene definita anti-aging. Se non proprio all’immortalità, la speranza è quella di arrivare a sviluppare prodotti in grado di ringiovanire le cellule e aumentare l’aspettativa e la qualità della vita.
Peter Thiel, l’imprenditore che dopo aver fondato PayPal e diretto eBay oggi si occupa di fondi di investimento, ha trovato una buona definizione per illustrare questa sfida: “l’innovazione antiaging riparerà i problemi causati dall’invecchiamento così come una patch aggiusta un bug di programmazione in un software”. Thiel è uno dei più attivi su questo fronte, e ha finanziato cospicuamente la Methuselah Foundation (Matusalemme, altro riferimento esplicito, questa volta biblico), ma non è il solo. Anche Jeff Bezos si è mosso sulle stesse piste sostenendo il progetto di riprogrammazione cellulare degli Altos Labs.
E oggi arriva sulla scena uno dei protagonisti dell’innovazione, anzi il protagonista per eccellenza degli ultimi due anni, Sam Altman, Ceo di OpenAI, che promette di rivoluzionare il settore. L’azienda afferma, infatti, di aver sviluppato un modello linguistico capace di immaginare proteine in grado di trasformare le normali cellule in cellule staminali — quelle totipotenti, in grado di assumere funzioni diverse e quindi di diventare tessuti diversi — e che questo modello di AI si sarebbe dimostrato più capace degli essere umani in questo compito.
È il primo modello di OpenAI incentrato sui dati biologici, ed è stato battezzato GPT-4b micro. Questo progetto di ingegneria proteica è iniziato, in realtà, più di un anno fa quando Retro Biosciences, un’azienda che si occupa di ricerca sulla longevità con sede a San Francisco, ha contattato OpenAI per proporre una collaborazione. Un contatto non casuale, dato che lo stesso Sam Altman aveva già finanziato personalmente l’azienda con 180 milioni di dollari.
Retro, il cui obiettivo dichiarato fin dal claim aziendale è “allungare la vita di 10 anni”, lavora sui cosiddetti fattori Yamanaka. Si tratta di un insieme di proteine scoperte dal Premio Nobel giapponese Shin’ya Yamanaka che, se aggiunte alle cellule della pelle, le trasformano in cellule staminali.
I fattori Yamanaka sono considerati il punto di partenza perfetto per raggiungere l’obiettivo del ringiovanimento dei tessuti, tanto che anche gli Altos Labs si stanno muovendo sullo stesso filone di ricerca di Retro Bio.
Ma questo tipo di “riprogrammazione” cellulare, attualmente, non è efficiente quando servirebbe. Il procedimento richiede diverse settimane e meno dell’1% delle cellule trattate completa il percorso di ringiovanimento.
GPT-4b micro, è stato addestrato proprio per suggerire nuovi e più efficaci modi per riprogettare i fattori proteici. I ricercatori di OpenAI e Retro Bio hanno utilizzato i suggerimenti dell’intelligenza artificiale per modificare due dei fattori Yamanaka e aumentare l’efficacia di più di 50 volte, almeno secondo misure preliminari.
A detta dei ricercatori — John Hallman e Aaron Jaech di OpenAI e Rico Meinl di Retro Bio — le proteine sembrano migliori di quelle che gli scienziati sono stati in grado di produrre da soli.
Fino alla pubblicazione dei risultati, però, alla comunità scientifica non resta che dubitare, dato che gli atti di fede non sono contemplati.
GPT-4b micro non è ancora un prodotto ufficiale. È attualmente allo stadio di demo su misura per questo specifico progetto. E non è nemmeno ancora chiaro se diventerà un modello a se stante o se le sue funzionalità saranno integrate in altri prodotti più ‘generici’.
L’algoritmo è stato addestrato su un database di sequenze proteiche di molte specie viventi, nonché istruito con le informazioni relative alle interazioni tra proteine. Una quantità di dati che può sembrare vasta ma che in realtà è solo una frazione di quella su cui sono stati addestrati i chatbot di punta di OpenAI, come ChatGPT. Il che rende GPT-4b un esempio non di large language model ma piuttosto di “piccolo modello linguistico”, un modello che funziona con un set di dati mirato.
Non è ancora chiaro come esattamente il GPT-4b arrivi a formulare le proprie ipotesi, come spesso accade con i modelli di intelligenza artificiale. Nemmeno i suoi stessi sviluppatori sono in grado di spiegarlo. “È come quando AlphaGo (l’AI sviluppata da Google DeepMind per giocare a Go) ha battuto il campione del mondo di Go, ma ci è voluto molto tempo per scoprire perché”, ha recentemente afferma Betts-Lacroix, Ceo di Retro Bio. “Stiamo ancora cercando di capire cosa fa e pensiamo che il modo in cui lo stiamo applicando sia ancora solo la punta dell’iceberg delle sue possibilità”.