rivista di opinione, ricerca e studi filosofici
rivista di opinione, ricerca e studi filosofici

Verso un’Intelligenza Modulare

Teoria degli Spazi Latenti Multiversali e Routing Agentico negli LLM a Bassa Capacità

di Francesco Pungitore*

 

L’evoluzione dell’intelligenza artificiale generativa è stata tradizionalmente guidata dal principio della crescita scalare: modelli linguistici sempre più ampi, addestrati su dataset massivi, per raggiungere livelli di performance generalista. Tuttavia, questa traiettoria monolitica si scontra con limiti strutturali che penalizzano aggiornabilità, modularità e specializzazione. Il presente lavoro introduce un paradigma architetturale alternativo – la Teoria degli Spazi Latenti Multiversali (Multiversal Latent Space Theory) – in cui un LLM congelato (non soggetto a retraining) può essere potenziato mediante l'accesso dinamico a spazi latenti indipendenti, detti universi, ciascuno associato a capacità strumentali e semantiche distinte. Tale framework consente anche a modelli a bassa capacità (≤1B parametri) di eseguire task multi-step e agentici avanzati, grazie a un sistema di LLM-powered routing che trasforma il modello in un meta-navigatore cognitivo. I risultati sperimentali ottenuti con Qwen-0.6B dimostrano la validità del modello. Si propone infine una roadmap per l’implementazione scalare del Multiverso come infrastruttura modulare per l’IA del futuro.

1. Introduzione: limiti del paradigma monolitico

Il paradigma prevalente nello sviluppo dei Large Language Models (LLM) si fonda sull'espansione dei parametri e sull’incremento esponenziale del training data. Questa strategia, pur efficace nel generare intelligenze generaliste, introduce significative criticità: alta richiesta computazionale, difficoltà nell’integrazione di nuove funzionalità, rischio di catastrophic forgetting e scarsa adattabilità in contesti specializzati o vincolati in termini di risorse.

A fronte di ciò, si rende necessario un cambio di paradigma: dalla crescita del modello alla crescita del mondo semantico in cui esso opera.

 

2. Fondamenti teorici: Spazi Latenti e Universi

La Teoria degli Spazi Latenti Multiversali propone un’architettura distribuita e modulare, in cui il LLM centrale rimane immutato e viene potenziato attraverso la possibilità di accedere a molteplici spazi latenti autonomi (universi), ciascuno dotato di strumenti computazionali, funzioni agentiche e strutture semantiche specifiche.

Ogni universo è mappato su un embedding vettoriale ad alta dimensionalità, tale da conferirgli una geografia cognitiva distinta all'interno del manifold semantico globale. La funzione del modello non è più quella di "onnisciente monolitico", bensì quella di router cognitivo in grado di:

  • interpretare l’intento dell’utente;
  • selezionare l’universo congruo;
  • individuare e attivare lo strumento più adatto.

 

3. Architettura del sistema

Il framework si articola in quattro componenti principali:

3.1. Universi (Latent Tool Spaces)

Ogni universo è una rappresentazione latente auto-contenuta. Nel presente esperimento sono stati implementati tre ambienti:

  • Base Model Universe (conversazione, reasoning generale);
  • Productivity Suite Universe (esecuzione di task real-world come meteo, email, calendario);
  • Creative Suite Universe (generazione artistica: immagini, testi creativi).

3.2. Embedding semantico

Ogni universo e ogni tool sono profilati tramite un embedding vettoriale generato con Qwen3-Embedding-0.6B, che permette la navigazione tra spazi semanticamente distanti.

3.3. LLM Router

Il modello Qwen-0.6B funge da meta-agente deliberativo: analizza il prompt dell’utente, valuta il contesto semantico e seleziona universo e tool attraverso ragionamento inferenziale, superando approcci basati su keyword-matching.

3.4. Execution Engine

Una volta individuato il tool, il sistema genera prompt specifici per l'esecuzione dell’azione, estraendo gli argomenti necessari e restituendo il risultato operativo (es. output JSON, immagine, metadato).

 

4. Esperimenti e validazione

Un esperimento replicabile è stato condotto in ambiente Colab, utilizzando esclusivamente modelli locali (no API esterne), per testare le seguenti ipotesi:

  • H1 – Non Interferenza: L’aggiunta di universi non compromette la performance nel dominio nativo → Confermato
  • H2 – Comprensione Modulare: Accuratezza nella selezione universo/tool → 85,71%
  • H3 – Traversal Multi-step: Capacità di eseguire task distribuiti tra universi → 100%
  • H4 – Separazione Geometrica: Silhouette Score → 0.726, coerente con una buona separazione topologica degli universi.

È emersa una criticità relativa all’estrazione degli argomenti (argument fidelity: 50%), legata alle limitazioni intrinseche dei modelli di piccola scala nel generare output formalizzati (es. JSON) in modo affidabile.

 

5. Implicazioni teoriche e pratiche

Questo framework dimostra empiricamente che è possibile ottenere intelligenza modulare senza necessità di aumentare la capacità parametrica del modello. Le implicazioni sono molteplici:

  • Efficienza computazionale: ideale per deployment edge e mobile;
  • Modularità semantica: gli universi sono sostituibili senza retraining del core model;
  • Estensibilità teoricamente infinita: ogni universo può rappresentare un dominio professionale (giuridico, finanziario, medico, creativo, ecc.).

 

6. Prospettive future

Le direttrici principali di sviluppo includono:

  • Potenziamento degli embedding con modelli più capienti per migliorare la separabilità topologica degli universi;
  • Fine-tuning del router per incrementare la precisione nell’estrazione semantica;
  • Realizzazione di un Multiverse SDK, per la creazione e gestione di universi personalizzati, favorendo una federazione dinamica di intelligenze artificiali specializzate.

 

7. Conclusione

La Teoria degli Spazi Latenti Multiversali rappresenta una discontinuità epistemologica nel design dell’IA: si passa dalla centralità del modello alla centralità dell’ecosistema semantico. Il LLM non è più un’entità chiusa, ma un navigatore consapevole di un universo modulare, espandibile, adattivo. Una mappa nuova si apre per l’Intelligenza Artificiale: non più un’intelligenza unica e indivisibile, ma una costellazione di competenze orchestrate con efficienza.

Immaginiamo un'intelligenza artificiale non più pensata come una gigantesca mente che deve sapere e fare tutto, ma come un sistema intelligente in grado di scegliere di volta in volta quale strumento usare, quale ambiente attivare, quale contesto esplorare. È questa l’intuizione alla base della Teoria degli Spazi Latenti Multiversali.

Il modello linguistico, invece di diventare sempre più grande e complesso, si comporta come un navigatore intelligente: riceve una richiesta e decide se rispondere direttamente oppure accedere a un "universo" più adatto per risolvere quel compito. Ogni universo è uno spazio semantico separato, con funzioni specializzate – un po’ come un’app nel nostro smartphone. C’è l’universo della produttività, con strumenti per il calendario o il meteo. C’è quello creativo, dove si generano immagini o storie. E ce n’è uno di base, per la conversazione e la riflessione generale.

Tutto questo è stato realizzato senza modificare o riaddestrare il modello di partenza. Anche un piccolo modello (come Qwen da 0.6 miliardi di parametri) ha mostrato di sapersi muovere in questo multiverso con ottimi risultati, riuscendo a portare a termine compiti complessi – spesso riservati a modelli molto più grandi – grazie alla capacità di ragionare, scegliere, agire in modo modulare.

Cosa cambia in pratica?

  • Modelli più leggeri possono fare molto di più, se messi nelle condizioni di usare strumenti esterni in modo intelligente.
  • Non serve ingrandire il modello, ma ampliare il suo mondo.
  • Si può costruire una rete di capacità specializzate, sempre accessibili e aggiornabili senza rischiare di "dimenticare" ciò che il modello già sa.

Verso il futuro

La prospettiva che si apre è quella di un’intelligenza artificiale distribuita, modulare, adattabile, capace di muoversi tra compiti diversi con leggerezza ed efficienza. Non un’unica grande intelligenza, ma una costellazione di abilità che dialogano tra loro. Un cambio di paradigma profondo, ma – come spesso accade nelle grandi rivoluzioni – nato da un’idea semplice: non serve rendere il cervello più grande, basta dargli più stanze in cui pensare.

Per chi vuole approfondire, il consiglio è di partire dall'esperimento descritto in questo trattato: si può ricreare facilmente, testare e potenziare. Perché il futuro dell’intelligenza artificiale potrebbe non passare dall’aumento dei muscoli… ma dalla moltiplicazione dei mondi.

 

*giornalista professionista e docente di Filosofia, Storia, Scienze Umane e Tecniche di Comunicazione, formatore esperto in Intelligenza Artificiale

Stampa | Mappa del sito
© 2015 - Essere & Pensiero - Testata giornalistica online ai sensi dell'art. 3-bis del d.l. 63/2012 sull'editoria convertito in legge n. 103/2012 - Direttore Responsabile: Francesco Pungitore