In questa puntata proseguiamo il percorso di approfondimento dedicato all’evoluzione dei sistemi di intelligenza artificiale, soffermandoci su una distinzione che sta diventando sempre più centrale sia nel dibattito normativo sia in quello tecnologico: la differenza tra Modelli di IA per finalità generali (GPAI), Large Language Models (LLM) e Agentic AI.
La crescente permeabilità tra questi tre livelli — categoria normativa, tecnologia abilitante e architettura autonoma — rende opportuno un approfondimento per interpretare correttamente gli obblighi previsti dall’AI Act, per valutare l’impatto organizzativo dei nuovi modelli e per orientare in modo consapevole l’adozione dell’IA nei processi aziendali e istituzionali.
L’analisi che segue ha quindi l’obiettivo di distinguere ciò che rientra nella nozione giuridica di GPAI, ciò che appartiene al dominio tecnologico degli LLM e ciò che invece caratterizza i sistemi agentici, dotati di un’autonomia crescente e capaci di incidere direttamente sul mondo reale.
Possiamo immaginare una gerarchia:
- i GPAI sono la categoria normativa e funzionale più ampia,
- gli LLM sono una specifica tecnologia che spesso rientra in quella categoria, e
- l’Agentic AI è un’evoluzione architetturale che utilizza gli LLM per agire autonomamente.

1. Modelli di IA per Finalità Generali (GPAI)
Il termine GPAI (General Purpose AI) è una definizione giuridica e funzionale consolidata nell’AI Act.
Un modello GPAI è un modello di IA che, addestrato con grandi quantità di dati utilizzando l’autosupervisione su larga scala, presenta una generalità significativa ed è capace di svolgere con competenza un’ampia gamma di compiti distinti (indipendentemente da come viene immesso sul mercato).
La caratteristica chiave è la versatilità. Possono essere integrati in una varietà di sistemi o applicazioni a valle.
L’AI Act distingue tra modelli GPAI “standard” e modelli GPAI con rischio sistemico, quelli con capacità di impatto elevato.
I grandi modelli che fungono da base per diverse applicazioni (generazione testo, immagini, codice) sono GPAI. GPT-4 è un esempio di modello GPAI.
Sui modelli GPAI avremo modo di soffermarci in successive puntate dedicate.
2. Large Language Models (LLM)
Gli LLM (Large Language Models) rappresentano una specifica classe tecnologica di modelli di IA.
Gli LLM sono un sottotipo o un esempio tipico di modelli GPAI. Poiché un LLM avanzato può scrivere codice, tradurre, riassumere e rispondere a domande, possiede quella “generalità significativa” che lo qualifica come GPAI.

Da soli, gli LLM sono limitati alla generazione di testo/contenuti e non hanno “vera” comprensione o capacità di agire nel mondo reale come i sistemi agentici; possono soffrire di “allucinazioni”.
Architettura Transformer
I GPAI e gli LLM si basano solitamente sull’architettura Transformer cioè, costruiti su una specifica tipologia di rete neurale avanzata (deep learning), progettata per elaborare, comprendere e generare linguaggio naturale simile a quello umano, con un livello di sofisticazione elevato.
Questa architettura comporta in particolare:
- Il Meccanismo di “Attenzione”: È la caratteristica distintiva fondamentale. Questo meccanismo permette al modello di “pesare” l’importanza di ogni singola parola (o token) all’interno di una frase rispetto a tutte le altre. In questo modo, il sistema può comprendere ogni parola non isolatamente, ma in relazione al suo contesto specifico all’interno della frase, indipendentemente dalla distanza tra le parole nella sequenza.
- Gestione del Contesto: Grazie all’architettura Transformer, il modello riesce a gestire in modo efficiente le relazioni contestuali. A differenza delle generazioni precedenti di modelli (dove la rappresentazione di una parola era indipendente dal contesto), nei Transformer la rappresentazione vettoriale di una parola dipende anche dalle parole vicine.
- Apprendimento e Predizione: Il modello viene addestrato su enormi quantità di dati per apprendere le relazioni probabilistiche del linguaggio (grammatica, sintassi, pattern, contesto e strutture linguistiche) e il suo funzionamento essenziale consiste nel prevedere la parola successiva (token) in una frase (sequenza) sulla base di ciò che ha appreso.
- Struttura Encoder-Decoder: L’architettura Transformer può essere suddivisa in tre tipologie (solo encoder, encoder-decoder, solo decoder), ma il funzionamento generale prevede:
- Encoder (Il “lettore”): L’Encoder guarda l’intera frase simultaneamente (è bidirezionale). Utilizza un meccanismo di “attenzione” per valutare l’importanza di ogni parola in relazione a tutte le altre nella frase, indipendentemente dalla loro posizione.
- Esempio Concreto: Immaginiamo la parola “pesca”.
- Frase A: “Ho mangiato una pesca dolce.”
- Frase B: “La pesca è stata abbondante nel lago.”
- Esempio Concreto: Immaginiamo la parola “pesca”.
L’Encoder analizza il contesto (le parole vicine come “mangiato” o “lago”) per capire che nel primo caso “pesca” è un frutto e nel secondo è un’attività. Crea una rappresentazione matematica (embedding) diversa per la stessa parola in base al contesto.
Modello di riferimento: BERT (sviluppato da Google) è il classico esempio di modello Encoder-only. È funzionale per compiti di classificazione, analisi del sentimento o riconoscimento di entità (es. capire se una frase è una recensione positiva o negativa), ma non è fatto per scrivere testi.
- Decoder (Lo “scrittore”): Si occupa della generazione del testo, predicendo una parola – o meglio un token – alla volta. La maggior parte degli LLM moderni utilizza un’architettura “decoder-only” (solo decodificatore). Il Decoder lavora in modo unidirezionale (da sinistra a destra). Costruisce la risposta basandosi sui token già generati e su quelli precedenti. Utilizza una “attenzione mascherata” (masked attention), che gli impedisce di “vedere” le parole future durante l’addestramento, costringendolo a indovinare la parola successiva basandosi solo sul passato.
- Esempio Concreto: Funziona come il completamento automatico avanzato.
- Input: “Il gatto è seduto sul…”
- Il Decoder calcola le probabilità per la parola successiva. Potrebbe assegnare alta probabilità a “tavolo”, “divano” o “tappeto”. Se sceglie “tappeto”, userà poi l’intera sequenza “Il gatto è seduto sul tappeto” per predire la parola ancora successiva.
- Esempio Concreto: Funziona come il completamento automatico avanzato.
Modello di riferimento: La serie GPT (Generative Pre-trained Transformer) di OpenAI è un esempio di architettura Decoder-only. Questi modelli sono ottimizzati per la generazione fluida di testo, chat e scrittura creativa
- Encoder-Decoder (Il “Traduttore”) (Sistema Ibrido): Esistono anche architetture che combinano entrambi. L’Encoder legge e “comprende” l’input creando una rappresentazione concettuale, che passa poi al Decoder per generare l’output.
- Esempio Concreto: La traduzione automatica.
- L’Encoder legge la frase italiana “Il gatto mangia” e ne crea una rappresentazione astratta del significato.
- Il Decoder prende questa rappresentazione e genera la traduzione inglese “The cat eats”.
- Esempio Concreto: La traduzione automatica.
Modelli noti come BERT e la serie GPT di OpenAI si basano sull’architettura neurale LLM.
3. Agentic AI (Agenti di IA)
L’Agentic AI rappresenta un passo ulteriore nell’evoluzione dei sistemi basati su IA, spostandosi dalla semplice generazione di contenuti all’azione autonoma.
Sono sistemi autonomi, spesso costruiti sopra gli LLM, in grado di eseguire compiti complessi combinando le capacità linguistiche del modello con capacità di ragionamento, pianificazione ed esecuzione.
In un agente, l’LLM funge da “cervello” centrale per il ragionamento e la comprensione, ma è integrato in un’architettura più ampia.
Caratteristiche distintive:
- Autonomia e Proattività: A differenza di un LLM standard che risponde passivamente a un prompt, un agente è proattivo e orientato all’obiettivo (goal-oriented).
- Uso di Strumenti (Tools): Gli agenti possono interagire con ambienti esterni, API, database o altri software per eseguire azioni (es. prenotare un volo, inviare una mail, consultare un calendario).
- Ciclo di feedback: Possono pianificare sequenze di azioni, osservare i risultati e correggere il proprio comportamento.
Nell’Agentic AI, il deployer (chi usa il sistema) assume spesso il ruolo di fornitore ai sensi dell’AI Act se modifica sostanzialmente il sistema o ne controlla l’architettura per scopi specifici, dato che l’agente opera con livelli di autonomia variabili. In ottica GDPR, assume anche il ruolo di titolare del trattamento dei dati personali utilizzati dal sistema.
Esempi di Agenti di IA
Facciamo alcuni esempi di Agenti di IA.
1. Auto-GPT: L’agente autonomo per i flussi di lavoro
Un esempio specifico è Auto-GPT.
Questo sistema è costruito sopra i Large Language Models (LLM) ma non si limita a generare testo. È in grado di raccogliere dati, pianificare strategie ed eseguire compiti in autonomia basandosi su istruzioni di alto livello.
- Scenario operativo: Un’organizzazione (deployer) potrebbe utilizzare o modificare Auto-GPT per automatizzare intere operazioni aziendali. Ad esempio, invece di chiedere all’IA di scrivere una singola e-mail, le si potrebbe dare l’obiettivo di “gestire la corrispondenza con i fornitori per la settimana”, e l’agente pianificherebbe ed eseguirebbe le varie fasi necessarie.
2. Gestione algoritmica della forza lavoro (Il caso Deliveroo) – Sebbene spesso classificati come algoritmi di gestione, questi sistemi mostrano tratti agentici nel prendere decisioni autonome che impattano sul mondo reale.
- Scenario operativo: Il Tribunale di Bologna (sentenza 2949/2019) ha esaminato il sistema utilizzato da Deliveroo per la gestione dei rider (v. Editoriale del 7 gennaio 2021). L’algoritmo non si limitava a suggerire turni, ma gestiva il sistema di prenotazione delle sessioni di lavoro basandosi su un punteggio attribuito a ciascun rider. Questo punteggio (ranking) veniva elaborato autonomamente su due parametri: affidabilità e partecipazione. In questo caso, il sistema agiva come un “agente” che determinava le opportunità lavorative degli esseri umani senza un intervento diretto di un supervisore umano per ogni singola decisione. Si veda anche il caso Foodinho (Alert del 19 dicembre 2024) e, in precedenza, la Cassazione sul caso Mevaluate (Cass. n. 28358/23, Editoriale del 19 ottobre 2023).
3. Agenti investigativi nel fisco (Il caso IRS) – Gli agenti IA vengono impiegati per compiti di indagine complessa che richiedono l’analisi di schemi e la presa di decisioni su chi sottoporre a controllo.
- Scenario operativo: Negli Stati Uniti, l’Internal Revenue Service (IRS), l’agenzia delle entrate federale, ha implementato l’uso dell’intelligenza artificiale per investigare in modo autonomo sull’evasione fiscale di soggetti complessi, come le società multinazionali (partnership) e i grandi fondi di investimento. L’IA in questo contesto agisce per individuare schemi di frode sofisticati che sfuggirebbero a controlli tradizionali.
4. Robotica agricola autonoma – Gli agenti IA possono essere anche “incarnati” (embodied AI) in macchinari fisici.
- Scenario operativo: In agricoltura, robot dotati di IA (agenti fisici) sono in grado di prendere decisioni ottimali direttamente sul campo senza intervento umano, automatizzando processi come la semina, la raccolta e il controllo delle colture. Questi sistemi osservano l’ambiente e agiscono di conseguenza per massimizzare il rendimento.
Caratteristiche distintive di questi esempi: A differenza dei software tradizionali o dei semplici chatbot, questi esempi mostrano sistemi che:
- Possono coordinarsi con altri agenti o sistemi.
- Apprendono nel tempo.
- Hanno la capacità di pianificare sequenze di azioni per raggiungere un obiettivo (ragionamento e pianificazione).
- Possono, in alcuni casi, agire senza supervisione diretta, sollevando questioni di accountability quando commettono errori.
Sintesi delle differenze
| Caratteristica | GPAI (General Purpose AI) | LLM (Large Language Model) | Agentic AI (Agenti IA) |
| Natura | Categoria giuridica/funzionale (Modello ad ampia generalità). | Tecnologia specifica (Modello di linguaggio basato su Deep Learning). | Sistema autonomo (Architettura che usa modelli per agire). |
| Funzione principale | Svolgere un’ampia varietà di compiti distinti. | Elaborare e generare testo/contenuti. | Eseguire compiti complessi, pianificare e agire autonomamente. |
| Relazione | È il “contenitore” normativo. | È il “motore” tecnologico (spesso un GPAI). | È l'”applicazione” autonoma che usa l’LLM come cervello. |
| Esempio | Il modello base di GPT-4. | Serie GPT, BERT. | Auto-GPT, assistenti che prenotano viaggi autonomamente. |
Rosario Imperiali d’Afflitto