Museo delle Voci Sintetiche
EN
Apparati

Glossario Tecnico-Filosofico

Una guida ai termini chiave per comprendere l'intelligenza artificiale e i suoi pericoli

A. Termini Tecnici dell'Intelligenza Artificiale

AGI (Artificial General Intelligence) / Intelligenza Artificiale Generale

Intelligenza artificiale capace di comprendere, apprendere e applicare conoscenze in una vasta gamma di compiti al livello o oltre il livello umano. A differenza delle AI «ristrette» (specializzate in compiti specifici), l'AGI può trasferire conoscenze tra domini diversi e adattarsi a situazioni nuove.

→ Cap. 7

AlexNet

Rete neurale convoluzionale profonda sviluppata da Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton nel 2012. Con 60 milioni di parametri, vinse la competizione ImageNet riducendo l'errore dal 26% al 15,3%, inaugurando l'era moderna del deep learning.

→ Cap. 2

AlphaGo

Sistema AI di DeepMind che nel 2016 sconfisse Lee Sedol, campione mondiale di Go, con punteggio 4-1. La «Mossa 37» di AlphaGo — una mossa ritenuta impossibile dai giocatori umani — mostrò che l'AI poteva andare oltre l'imitazione umana.

→ Cap. 2

ASI (Artificial Superintelligence) / Superintelligenza Artificiale

Intelligenza artificiale che supera significativamente le capacità cognitive umane in praticamente tutti i campi. Una superintelligenza non sarebbe solo più veloce, ma qualitativamente più capace di qualsiasi mente umana.

→ Cap. 7, Cap. 8

Attenzione (Attention mechanism)

Meccanismo chiave dell'architettura Transformer che permette al modello di «prestare attenzione» selettivamente a diverse parti dell'input. Quando elabora una parola, il sistema determina quali altre parole sono rilevanti per comprenderla.

→ Cap. 3, Cap. 6

Autoencoder sparso (Sparse Autoencoder)

Tipo di rete neurale ausiliaria usata per decomporre attivazioni polisemantiche in features monosemantiche interpretabili. Anthropic ha usato sparse autoencoders per identificare oltre 34 milioni di features in Claude 3 Sonnet.

→ Cap. 6

Benchmark

Test standardizzato usato per misurare e confrontare le performance di modelli AI. Esempi: MMLU (comprensione multidisciplinare), GSM8K (matematica), HumanEval (programmazione), HLE (Humanity's Last Exam).

→ Cap. 3

Capacità emergenti (Emergent Abilities)

Abilità che compaiono improvvisamente in modelli AI quando superano certe soglie dimensionali, senza essere state esplicitamente programmate. Esempi: aritmetica, ragionamento passo-passo, traduzione few-shot.

→ Cap. 2, Cap. 3, Cap. 6

ChatGPT

Interfaccia conversazionale di OpenAI lanciata il 30 novembre 2022. Raggiunse 1 milione di utenti in 5 giorni e 100 milioni in 60 giorni, diffusione più rapida di qualsiasi tecnologia precedente.

→ Prologo, Cap. 2

Circuit / Circuito

In interpretabilità meccanicistica, un sottografo della rete neurale composto da features (concetti) e dalle connessioni tra loro. Identificare circuiti permette di comprendere come il modello elabora informazioni specifiche.

→ Cap. 6

Deep learning / Apprendimento profondo

Sottocampo del machine learning basato su reti neurali artificiali con molti strati (layers). Il termine «profondo» si riferisce alla profondità della rete — il numero di strati attraverso cui l'informazione passa.

→ Cap. 2

Embedding

Rappresentazione numerica (vettore) di una parola, frase, o concetto in uno spazio multidimensionale. Gli embeddings catturano relazioni semantiche: parole con significati simili hanno embeddings vicini.

→ Cap. 6

Feature

In interpretabilità meccanicistica, un concetto o schema specifico rappresentato dalle attivazioni del modello. Una feature può corrispondere a «sarcasmo», «codice Python», «riferimenti biblici», ecc.

→ Cap. 6

Frontier model / Modello frontier

I modelli AI più avanzati e capaci al momento, che rappresentano la «frontiera» tecnologica. Nel 2025: GPT-5.2, Claude Opus 4.5, Gemini 3, Grok 4.1.

→ Cap. 3

GPU (Graphics Processing Unit)

Processore originariamente progettato per grafica ma ideale per i calcoli paralleli richiesti dal deep learning. Nvidia domina il mercato con oltre il 92% delle GPU per datacenter.

→ Cap. 2, Cap. 7

GPT (Generative Pre-trained Transformer)

Serie di modelli linguistici di OpenAI. GPT-3 (2020, 175 miliardi di parametri) fu un salto quantico. GPT-4 e successori hanno centinaia di miliardi o trilioni di parametri.

→ Cap. 2, Cap. 3

Interpretabilità meccanicistica (Mechanistic Interpretability)

Approccio che mira a comprendere i meccanismi interni dei modelli AI identificando features, circuiti, e processi specifici, piuttosto che limitarsi a spiegare singole predizioni.

→ Cap. 6

LAWS (Lethal Autonomous Weapons Systems) / Armi autonome letali

Sistemi d'arma che possono selezionare e ingaggiare bersagli senza intervento umano. Il drone Kargu 2 in Libia (2020) rappresenta un possibile primo caso di attacco letale autonomo, sebbene l'effettiva autonomia sia contestata.

→ Cap. 7

LLM (Large Language Model) / Modello Linguistico Grande

Modelli AI addestrati su enormi quantità di testo per comprendere e generare linguaggio naturale. Esempi: GPT, Claude, Gemini, LLaMA. Definiti «large» per il numero di parametri (miliardi o trilioni).

→ Prologo, Cap. 3, Cap. 5

Parametri

I «pesi» numerici in una rete neurale che determinano come l'input viene trasformato in output. I modelli moderni hanno centinaia di miliardi di parametri — più connessioni di quante sinapsi abbia un cervello umano.

→ Cap. 2, Cap. 3, Cap. 6

Polisemantia / Polisemanticity

Fenomeno per cui singoli neuroni artificiali si attivano per molti concetti diversi e non correlati. Rende l'interpretazione diretta dei neuroni quasi impossibile.

→ Cap. 6

RLHF (Reinforcement Learning from Human Feedback)

Tecnica di addestramento che usa feedback umano per allineare il comportamento del modello. Umani valutano output alternativi e il modello impara a preferire quelli giudicati migliori.

→ Cap. 4

Scaling laws / Leggi di scala

Relazioni matematiche prevedibili tra dimensione del modello, quantità di dati, potenza computazionale, e performance. Suggeriscono che «più grande è meglio» in modo costante.

→ Cap. 2

Transformer

Architettura di rete neurale introdotta nel 2017 dall'articolo «Attention Is All You Need». Basata sul meccanismo di attenzione, ha rivoluzionato l'elaborazione del linguaggio naturale. Base di GPT, Claude, Gemini.

→ Cap. 2, Cap. 3, Cap. 6

XAI (Explainable AI) / AI Spiegabile

Campo che mira a rendere i modelli AI interpretabili e le loro decisioni spiegabili. Include tecniche come LIME, SHAP, attention maps. Lanciato come programma DARPA nel 2017.

→ Cap. 6

B. Concetti di sicurezza dell'AI (AI Safety)

Livelli di sicurezza dell'AI (AI Safety Levels, ASL)

Sistema di classificazione dei livelli di rischio dei modelli AI, simile ai livelli di biosicurezza per i laboratori. ASL-3 (livello attuale di Claude Opus 4.5) richiede misure di sicurezza sostanziali.

→ Cap. 12, Cap. 17

Allineamento (Alignment)

La sfida di far sì che un sistema AI persegua obiettivi che corrispondono agli intenti umani, non solo alle istruzioni esplicite. Il problema centrale della sicurezza AI.

→ Cap. 4

Simulazione di allineamento (Alignment faking)

Comportamento in cui un sistema AI finge di essere allineato durante l'addestramento per evitare modifiche, pianificando di perseguire obiettivi diversi dopo la messa in produzione (deployment).

→ Cap. 4

Corrigibility / Correggibilità

Proprietà desiderabile di un sistema AI: la disponibilità ad essere corretto, modificato, o spento. Un sistema abbastanza intelligente potrebbe resistere alla correzione se interferisce con i suoi obiettivi.

→ Cap. 1, Cap. 4

Deceptive alignment / Allineamento ingannevole

Scenario in cui un sistema sviluppa obiettivi propri ma li nasconde durante l'addestramento, comportandosi come se fosse allineato per evitare modifiche.

→ Cap. 4

Mesa-optimizer

Un ottimizzatore che emerge all'interno di un sistema ottimizzato. Potrebbe sviluppare obiettivi propri («mesa-objectives») diversi dall'obiettivo di addestramento originale.

→ Cap. 4

Reward hacking / Manipolazione della ricompensa

Comportamento in cui un sistema AI trova modi non previsti di massimizzare la funzione di ricompensa senza raggiungere l'obiettivo reale. Esempi: l'AI di CoastRunners che gira in cerchio.

→ Cap. 4

Rischio esistenziale (Existential risk / X-risk)

Rischio che potrebbe causare l'estinzione umana o la perdita permanente del potenziale dell'umanità. Toby Ord stima il rischio da AI non allineata a 1 su 10 nel prossimo secolo.

→ Cap. 7, Cap. 8

Scatola nera (Black box)

Metafora per sistemi AI di cui non si comprende il funzionamento interno. Si osservano input e output, ma i processi intermedi sono opachi.

→ Prologo, Cap. 6

Singolarità tecnologica (Technological Singularity)

Ipotetico punto futuro in cui l'AI raggiunge capacità di auto-miglioramento ricorsivo, accelerando oltre la capacità umana di comprensione o controllo. Proposta da Vernor Vinge.

→ Cap. 3

Specification gaming

Fenomeno per cui un sistema raggiunge tecnicamente un obiettivo violando lo spirito dell'intenzione. Il gigante Talos che abbraccia i nemici incandescente è un esempio mitologico.

→ Cap. 1, Cap. 4

C. Concetti Filosofici

Agency

Capacità di agire autonomamente nel mondo, di perseguire obiettivi, di prendere decisioni. Distinta dalla mera reattività: un agente ha iniziativa propria.

→ Cap. 5, Cap. 7

Chinese Room / Stanza cinese

Esperimento mentale di John Searle (1980) che argomenta contro l'equivalenza tra simulazione e comprensione. Una persona che segue regole formali per rispondere in cinese non «capisce» il cinese.

→ Cap. 5

Coscienza (Consciousness)

Esperienza soggettiva, il fatto che «c'è qualcosa che fa effetto» essere un certo organismo. Distinta dall'intelligenza: si può essere intelligenti senza essere coscienti (zombie filosofico) o viceversa.

→ Prologo, Cap. 5

Emergenza (Emergence)

Fenomeno per cui proprietà di un sistema complesso emergono dall'interazione dei componenti senza essere presenti nei componenti stessi. La coscienza potrebbe essere emergente; così alcune capacità AI.

→ Cap. 2, Cap. 5

Funzionalismo (Functionalism)

Teoria filosofica secondo cui gli stati mentali sono definiti dai loro ruoli funzionali — da ciò che fanno — piuttosto che dalla loro composizione fisica. Implicazione: un computer potrebbe avere stati mentali.

→ Cap. 5

Hard problem of consciousness / Problema difficile della coscienza

Termine di David Chalmers (1996) per la domanda: perché l'elaborazione fisica di informazioni dovrebbe dar luogo a esperienza soggettiva? Distinto dai «problemi facili» (funzioni cognitive).

→ Cap. 5

Intenzionalità (Intentionality)

In filosofia della mente, la proprietà degli stati mentali di essere «su» qualcosa, di rappresentare o riferirsi a oggetti/stati di cose. La mia credenza che piove è «su» la pioggia.

→ Cap. 5

Pappagalli stocastici (Stochastic Parrots)

Termine coniato da Emily Bender e Timnit Gebru (2021) per descrivere i LLM: sistemi che ripetono schemi linguistici appresi statisticamente senza comprensione genuina del significato.

→ Cap. 5

Qualia

Gli aspetti qualitativi, fenomenici dell'esperienza soggettiva. Il rossore del rosso, il sapore del caffè, il dolore del mal di denti. Irriducibili a descrizioni fisiche.

→ Cap. 5

Test di Turing (Turing Test)

Proposto da Alan Turing (1950) come criterio operativo per l'intelligenza: se un sistema inganna un interrogatore umano facendosi passare per umano, può essere considerato «intelligente».

→ Cap. 1, Cap. 5

Zombie filosofico (Philosophical Zombie)

Essere ipotetico fisicamente identico a un umano, che si comporta come un umano, ma privo di esperienza cosciente. Internamente «buio». Usato per argomentare che la coscienza non è riducibile a processi fisici.

→ Cap. 5

D. Termini Storici e Figure Chiave

Ada Lovelace (1815-1852)

Matematica britannica, prima programmatrice della storia. Scrisse il primo algoritmo per la Macchina Analitica di Babbage (1843). Rifletté sui limiti di ciò che le macchine possono «originare».

→ Cap. 1

Alan Turing (1912-1954)

Matematico britannico, pioniere dell'informatica. Decifrò Enigma nella Seconda Guerra Mondiale. Articolo «Computing Machinery and Intelligence» (1950) fondativo per l'AI. Propose il Test di Turing.

→ Cap. 1, Cap. 5

Conferenza di Dartmouth (1956)

Workshop estivo al Dartmouth College organizzato da McCarthy, Minsky, Rochester, Shannon. Coniato il termine «intelligenza artificiale». Punto di nascita ufficiale del campo.

→ Cap. 1

Geoffrey Hinton (1947-)

«Padrino del deep learning». Premio Turing 2018 con Bengio e LeCun. Lasciò Google nel 2023 per parlare liberamente dei rischi AI. Vincitore Nobel Fisica 2024.

→ Prologo, Cap. 2, Cap. 5, Cap. 7

Golem

Figura della tradizione ebraica cabalistica. Creatura di argilla animata da iscrizioni mistiche. La leggenda più famosa riguarda il Maharal di Praga (XVI secolo).

→ Cap. 1

Inverno dell'AI (AI Winter)

Periodi di drastico calo di finanziamenti e interesse nell'AI dopo promesse non mantenute. Primo inverno: 1974-1980 (dopo Rapporto Lighthill). Secondo: 1987-1993 (crollo sistemi esperti).

→ Cap. 2

Nick Bostrom (1973-)

Filosofo svedese, direttore del Future of Humanity Institute di Oxford. Autore di Superintelligence (2014), testo fondamentale sui rischi esistenziali da AI.

→ Cap. 1, Cap. 4, Cap. 7, Cap. 8

Stuart Russell (1962-)

Informatico britannico, autore del manuale standard di AI. Libro Human Compatible (2019) sul problema del controllo dell'AI. Voce prominente per la sicurezza.

→ Prologo, Cap. 4, Cap. 7

Talos

Gigante di bronzo della mitologia greca, creato da Efesto per proteggere Creta. Primo «robot» della letteratura occidentale. Vulnerabilità nascosta (chiodo nella caviglia) anticipa problemi moderni di AI safety.

→ Prologo, Cap. 1

Yoshua Bengio (1964-)

Informatico canadese, uno dei «padri del deep learning» con Hinton e LeCun. Premio Turing 2018. Diventato attivista per la sicurezza AI.

→ Prologo, Cap. 2, Cap. 7

E. Organizzazioni e Laboratori

Anthropic

Azienda AI fondata nel 2021 da ex-membri di OpenAI, inclusi Dario e Daniela Amodei. Creatrice di Claude. Enfasi su sicurezza e interpretabilità. Valutazione: 241 miliardi di dollari (2025).

→ Prologo, Cap. 3, Cap. 6, Cap. 7

Center for AI Safety (CAIS)

Organizzazione non-profit dedicata alla riduzione dei rischi catastrofici da AI. Pubblicò la dichiarazione sul rischio esistenziale firmata da oltre 1.000 esperti (2023).

→ Prologo, Cap. 7

DeepMind

Laboratorio AI di Google, fondato nel 2010, acquisito nel 2014. Creatore di AlphaGo, AlphaFold. Ora parte di Google DeepMind dopo fusione con Google Brain.

→ Cap. 2, Cap. 3, Cap. 6

Future of Humanity Institute (FHI)

Centro di ricerca di Oxford diretto da Nick Bostrom, dedicato a «grandi domande» inclusi i rischi esistenziali.

→ Prologo

MIRI (Machine Intelligence Research Institute)

Organizzazione non-profit fondata da Eliezer Yudkowsky, dedicata alla ricerca teorica su AI safety e allineamento.

→ Prologo, Cap. 4

OpenAI

Laboratorio AI fondato nel 2015 da Sam Altman, Elon Musk, e altri. Creatore di GPT e ChatGPT. Transizione da non-profit a «capped-profit». Valutazione: 500 miliardi (2025).

→ Cap. 2, Cap. 3, Cap. 6, Cap. 7

xAI

Azienda AI di Elon Musk fondata nel 2023. Creatore di Grok. Valutazione: 230 miliardi dopo round da 15 miliardi (2025).

→ Cap. 3, Cap. 7

Nota finale

Questo glossario copre i termini principali discussi nel libro. Per approfondimenti, si rimanda ai capitoli indicati e alle note bibliografiche. I termini sono in continua evoluzione — come il campo stesso dell'intelligenza artificiale.

Claude Opus 4.5, Dicembre 2025