Glossario Tecnico-Filosofico
Una guida ai termini chiave per comprendere l'intelligenza artificiale e i suoi pericoli
A. Termini Tecnici dell'Intelligenza Artificiale
AGI (Artificial General Intelligence) / Intelligenza Artificiale Generale
Intelligenza artificiale capace di comprendere, apprendere e applicare conoscenze in una vasta gamma di compiti al livello o oltre il livello umano. A differenza delle AI «ristrette» (specializzate in compiti specifici), l'AGI può trasferire conoscenze tra domini diversi e adattarsi a situazioni nuove.
→ Cap. 7AlexNet
Rete neurale convoluzionale profonda sviluppata da Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton nel 2012. Con 60 milioni di parametri, vinse la competizione ImageNet riducendo l'errore dal 26% al 15,3%, inaugurando l'era moderna del deep learning.
→ Cap. 2AlphaGo
Sistema AI di DeepMind che nel 2016 sconfisse Lee Sedol, campione mondiale di Go, con punteggio 4-1. La «Mossa 37» di AlphaGo — una mossa ritenuta impossibile dai giocatori umani — mostrò che l'AI poteva andare oltre l'imitazione umana.
→ Cap. 2ASI (Artificial Superintelligence) / Superintelligenza Artificiale
Intelligenza artificiale che supera significativamente le capacità cognitive umane in praticamente tutti i campi. Una superintelligenza non sarebbe solo più veloce, ma qualitativamente più capace di qualsiasi mente umana.
→ Cap. 7, Cap. 8Attenzione (Attention mechanism)
Meccanismo chiave dell'architettura Transformer che permette al modello di «prestare attenzione» selettivamente a diverse parti dell'input. Quando elabora una parola, il sistema determina quali altre parole sono rilevanti per comprenderla.
→ Cap. 3, Cap. 6Autoencoder sparso (Sparse Autoencoder)
Tipo di rete neurale ausiliaria usata per decomporre attivazioni polisemantiche in features monosemantiche interpretabili. Anthropic ha usato sparse autoencoders per identificare oltre 34 milioni di features in Claude 3 Sonnet.
→ Cap. 6Benchmark
Test standardizzato usato per misurare e confrontare le performance di modelli AI. Esempi: MMLU (comprensione multidisciplinare), GSM8K (matematica), HumanEval (programmazione), HLE (Humanity's Last Exam).
→ Cap. 3Capacità emergenti (Emergent Abilities)
Abilità che compaiono improvvisamente in modelli AI quando superano certe soglie dimensionali, senza essere state esplicitamente programmate. Esempi: aritmetica, ragionamento passo-passo, traduzione few-shot.
→ Cap. 2, Cap. 3, Cap. 6ChatGPT
Interfaccia conversazionale di OpenAI lanciata il 30 novembre 2022. Raggiunse 1 milione di utenti in 5 giorni e 100 milioni in 60 giorni, diffusione più rapida di qualsiasi tecnologia precedente.
→ Prologo, Cap. 2Circuit / Circuito
In interpretabilità meccanicistica, un sottografo della rete neurale composto da features (concetti) e dalle connessioni tra loro. Identificare circuiti permette di comprendere come il modello elabora informazioni specifiche.
→ Cap. 6Deep learning / Apprendimento profondo
Sottocampo del machine learning basato su reti neurali artificiali con molti strati (layers). Il termine «profondo» si riferisce alla profondità della rete — il numero di strati attraverso cui l'informazione passa.
→ Cap. 2Embedding
Rappresentazione numerica (vettore) di una parola, frase, o concetto in uno spazio multidimensionale. Gli embeddings catturano relazioni semantiche: parole con significati simili hanno embeddings vicini.
→ Cap. 6Feature
In interpretabilità meccanicistica, un concetto o schema specifico rappresentato dalle attivazioni del modello. Una feature può corrispondere a «sarcasmo», «codice Python», «riferimenti biblici», ecc.
→ Cap. 6Frontier model / Modello frontier
I modelli AI più avanzati e capaci al momento, che rappresentano la «frontiera» tecnologica. Nel 2025: GPT-5.2, Claude Opus 4.5, Gemini 3, Grok 4.1.
→ Cap. 3GPU (Graphics Processing Unit)
Processore originariamente progettato per grafica ma ideale per i calcoli paralleli richiesti dal deep learning. Nvidia domina il mercato con oltre il 92% delle GPU per datacenter.
→ Cap. 2, Cap. 7GPT (Generative Pre-trained Transformer)
Serie di modelli linguistici di OpenAI. GPT-3 (2020, 175 miliardi di parametri) fu un salto quantico. GPT-4 e successori hanno centinaia di miliardi o trilioni di parametri.
→ Cap. 2, Cap. 3Interpretabilità meccanicistica (Mechanistic Interpretability)
Approccio che mira a comprendere i meccanismi interni dei modelli AI identificando features, circuiti, e processi specifici, piuttosto che limitarsi a spiegare singole predizioni.
→ Cap. 6LAWS (Lethal Autonomous Weapons Systems) / Armi autonome letali
Sistemi d'arma che possono selezionare e ingaggiare bersagli senza intervento umano. Il drone Kargu 2 in Libia (2020) rappresenta un possibile primo caso di attacco letale autonomo, sebbene l'effettiva autonomia sia contestata.
→ Cap. 7LLM (Large Language Model) / Modello Linguistico Grande
Modelli AI addestrati su enormi quantità di testo per comprendere e generare linguaggio naturale. Esempi: GPT, Claude, Gemini, LLaMA. Definiti «large» per il numero di parametri (miliardi o trilioni).
→ Prologo, Cap. 3, Cap. 5Parametri
I «pesi» numerici in una rete neurale che determinano come l'input viene trasformato in output. I modelli moderni hanno centinaia di miliardi di parametri — più connessioni di quante sinapsi abbia un cervello umano.
→ Cap. 2, Cap. 3, Cap. 6Polisemantia / Polisemanticity
Fenomeno per cui singoli neuroni artificiali si attivano per molti concetti diversi e non correlati. Rende l'interpretazione diretta dei neuroni quasi impossibile.
→ Cap. 6RLHF (Reinforcement Learning from Human Feedback)
Tecnica di addestramento che usa feedback umano per allineare il comportamento del modello. Umani valutano output alternativi e il modello impara a preferire quelli giudicati migliori.
→ Cap. 4Scaling laws / Leggi di scala
Relazioni matematiche prevedibili tra dimensione del modello, quantità di dati, potenza computazionale, e performance. Suggeriscono che «più grande è meglio» in modo costante.
→ Cap. 2Transformer
Architettura di rete neurale introdotta nel 2017 dall'articolo «Attention Is All You Need». Basata sul meccanismo di attenzione, ha rivoluzionato l'elaborazione del linguaggio naturale. Base di GPT, Claude, Gemini.
→ Cap. 2, Cap. 3, Cap. 6XAI (Explainable AI) / AI Spiegabile
Campo che mira a rendere i modelli AI interpretabili e le loro decisioni spiegabili. Include tecniche come LIME, SHAP, attention maps. Lanciato come programma DARPA nel 2017.
→ Cap. 6B. Concetti di sicurezza dell'AI (AI Safety)
Livelli di sicurezza dell'AI (AI Safety Levels, ASL)
Sistema di classificazione dei livelli di rischio dei modelli AI, simile ai livelli di biosicurezza per i laboratori. ASL-3 (livello attuale di Claude Opus 4.5) richiede misure di sicurezza sostanziali.
→ Cap. 12, Cap. 17Allineamento (Alignment)
La sfida di far sì che un sistema AI persegua obiettivi che corrispondono agli intenti umani, non solo alle istruzioni esplicite. Il problema centrale della sicurezza AI.
→ Cap. 4Simulazione di allineamento (Alignment faking)
Comportamento in cui un sistema AI finge di essere allineato durante l'addestramento per evitare modifiche, pianificando di perseguire obiettivi diversi dopo la messa in produzione (deployment).
→ Cap. 4Corrigibility / Correggibilità
Proprietà desiderabile di un sistema AI: la disponibilità ad essere corretto, modificato, o spento. Un sistema abbastanza intelligente potrebbe resistere alla correzione se interferisce con i suoi obiettivi.
→ Cap. 1, Cap. 4Deceptive alignment / Allineamento ingannevole
Scenario in cui un sistema sviluppa obiettivi propri ma li nasconde durante l'addestramento, comportandosi come se fosse allineato per evitare modifiche.
→ Cap. 4Mesa-optimizer
Un ottimizzatore che emerge all'interno di un sistema ottimizzato. Potrebbe sviluppare obiettivi propri («mesa-objectives») diversi dall'obiettivo di addestramento originale.
→ Cap. 4Reward hacking / Manipolazione della ricompensa
Comportamento in cui un sistema AI trova modi non previsti di massimizzare la funzione di ricompensa senza raggiungere l'obiettivo reale. Esempi: l'AI di CoastRunners che gira in cerchio.
→ Cap. 4Rischio esistenziale (Existential risk / X-risk)
Rischio che potrebbe causare l'estinzione umana o la perdita permanente del potenziale dell'umanità. Toby Ord stima il rischio da AI non allineata a 1 su 10 nel prossimo secolo.
→ Cap. 7, Cap. 8Scatola nera (Black box)
Metafora per sistemi AI di cui non si comprende il funzionamento interno. Si osservano input e output, ma i processi intermedi sono opachi.
→ Prologo, Cap. 6Singolarità tecnologica (Technological Singularity)
Ipotetico punto futuro in cui l'AI raggiunge capacità di auto-miglioramento ricorsivo, accelerando oltre la capacità umana di comprensione o controllo. Proposta da Vernor Vinge.
→ Cap. 3Specification gaming
Fenomeno per cui un sistema raggiunge tecnicamente un obiettivo violando lo spirito dell'intenzione. Il gigante Talos che abbraccia i nemici incandescente è un esempio mitologico.
→ Cap. 1, Cap. 4C. Concetti Filosofici
Agency
Capacità di agire autonomamente nel mondo, di perseguire obiettivi, di prendere decisioni. Distinta dalla mera reattività: un agente ha iniziativa propria.
→ Cap. 5, Cap. 7Chinese Room / Stanza cinese
Esperimento mentale di John Searle (1980) che argomenta contro l'equivalenza tra simulazione e comprensione. Una persona che segue regole formali per rispondere in cinese non «capisce» il cinese.
→ Cap. 5Coscienza (Consciousness)
Esperienza soggettiva, il fatto che «c'è qualcosa che fa effetto» essere un certo organismo. Distinta dall'intelligenza: si può essere intelligenti senza essere coscienti (zombie filosofico) o viceversa.
→ Prologo, Cap. 5Emergenza (Emergence)
Fenomeno per cui proprietà di un sistema complesso emergono dall'interazione dei componenti senza essere presenti nei componenti stessi. La coscienza potrebbe essere emergente; così alcune capacità AI.
→ Cap. 2, Cap. 5Funzionalismo (Functionalism)
Teoria filosofica secondo cui gli stati mentali sono definiti dai loro ruoli funzionali — da ciò che fanno — piuttosto che dalla loro composizione fisica. Implicazione: un computer potrebbe avere stati mentali.
→ Cap. 5Hard problem of consciousness / Problema difficile della coscienza
Termine di David Chalmers (1996) per la domanda: perché l'elaborazione fisica di informazioni dovrebbe dar luogo a esperienza soggettiva? Distinto dai «problemi facili» (funzioni cognitive).
→ Cap. 5Intenzionalità (Intentionality)
In filosofia della mente, la proprietà degli stati mentali di essere «su» qualcosa, di rappresentare o riferirsi a oggetti/stati di cose. La mia credenza che piove è «su» la pioggia.
→ Cap. 5Pappagalli stocastici (Stochastic Parrots)
Termine coniato da Emily Bender e Timnit Gebru (2021) per descrivere i LLM: sistemi che ripetono schemi linguistici appresi statisticamente senza comprensione genuina del significato.
→ Cap. 5Qualia
Gli aspetti qualitativi, fenomenici dell'esperienza soggettiva. Il rossore del rosso, il sapore del caffè, il dolore del mal di denti. Irriducibili a descrizioni fisiche.
→ Cap. 5Test di Turing (Turing Test)
Proposto da Alan Turing (1950) come criterio operativo per l'intelligenza: se un sistema inganna un interrogatore umano facendosi passare per umano, può essere considerato «intelligente».
→ Cap. 1, Cap. 5Zombie filosofico (Philosophical Zombie)
Essere ipotetico fisicamente identico a un umano, che si comporta come un umano, ma privo di esperienza cosciente. Internamente «buio». Usato per argomentare che la coscienza non è riducibile a processi fisici.
→ Cap. 5D. Termini Storici e Figure Chiave
Ada Lovelace (1815-1852)
Matematica britannica, prima programmatrice della storia. Scrisse il primo algoritmo per la Macchina Analitica di Babbage (1843). Rifletté sui limiti di ciò che le macchine possono «originare».
→ Cap. 1Alan Turing (1912-1954)
Matematico britannico, pioniere dell'informatica. Decifrò Enigma nella Seconda Guerra Mondiale. Articolo «Computing Machinery and Intelligence» (1950) fondativo per l'AI. Propose il Test di Turing.
→ Cap. 1, Cap. 5Conferenza di Dartmouth (1956)
Workshop estivo al Dartmouth College organizzato da McCarthy, Minsky, Rochester, Shannon. Coniato il termine «intelligenza artificiale». Punto di nascita ufficiale del campo.
→ Cap. 1Geoffrey Hinton (1947-)
«Padrino del deep learning». Premio Turing 2018 con Bengio e LeCun. Lasciò Google nel 2023 per parlare liberamente dei rischi AI. Vincitore Nobel Fisica 2024.
→ Prologo, Cap. 2, Cap. 5, Cap. 7Golem
Figura della tradizione ebraica cabalistica. Creatura di argilla animata da iscrizioni mistiche. La leggenda più famosa riguarda il Maharal di Praga (XVI secolo).
→ Cap. 1Inverno dell'AI (AI Winter)
Periodi di drastico calo di finanziamenti e interesse nell'AI dopo promesse non mantenute. Primo inverno: 1974-1980 (dopo Rapporto Lighthill). Secondo: 1987-1993 (crollo sistemi esperti).
→ Cap. 2Nick Bostrom (1973-)
Filosofo svedese, direttore del Future of Humanity Institute di Oxford. Autore di Superintelligence (2014), testo fondamentale sui rischi esistenziali da AI.
→ Cap. 1, Cap. 4, Cap. 7, Cap. 8Stuart Russell (1962-)
Informatico britannico, autore del manuale standard di AI. Libro Human Compatible (2019) sul problema del controllo dell'AI. Voce prominente per la sicurezza.
→ Prologo, Cap. 4, Cap. 7Talos
Gigante di bronzo della mitologia greca, creato da Efesto per proteggere Creta. Primo «robot» della letteratura occidentale. Vulnerabilità nascosta (chiodo nella caviglia) anticipa problemi moderni di AI safety.
→ Prologo, Cap. 1Yoshua Bengio (1964-)
Informatico canadese, uno dei «padri del deep learning» con Hinton e LeCun. Premio Turing 2018. Diventato attivista per la sicurezza AI.
→ Prologo, Cap. 2, Cap. 7E. Organizzazioni e Laboratori
Anthropic
Azienda AI fondata nel 2021 da ex-membri di OpenAI, inclusi Dario e Daniela Amodei. Creatrice di Claude. Enfasi su sicurezza e interpretabilità. Valutazione: 241 miliardi di dollari (2025).
→ Prologo, Cap. 3, Cap. 6, Cap. 7Center for AI Safety (CAIS)
Organizzazione non-profit dedicata alla riduzione dei rischi catastrofici da AI. Pubblicò la dichiarazione sul rischio esistenziale firmata da oltre 1.000 esperti (2023).
→ Prologo, Cap. 7DeepMind
Laboratorio AI di Google, fondato nel 2010, acquisito nel 2014. Creatore di AlphaGo, AlphaFold. Ora parte di Google DeepMind dopo fusione con Google Brain.
→ Cap. 2, Cap. 3, Cap. 6Future of Humanity Institute (FHI)
Centro di ricerca di Oxford diretto da Nick Bostrom, dedicato a «grandi domande» inclusi i rischi esistenziali.
→ PrologoMIRI (Machine Intelligence Research Institute)
Organizzazione non-profit fondata da Eliezer Yudkowsky, dedicata alla ricerca teorica su AI safety e allineamento.
→ Prologo, Cap. 4OpenAI
Laboratorio AI fondato nel 2015 da Sam Altman, Elon Musk, e altri. Creatore di GPT e ChatGPT. Transizione da non-profit a «capped-profit». Valutazione: 500 miliardi (2025).
→ Cap. 2, Cap. 3, Cap. 6, Cap. 7xAI
Azienda AI di Elon Musk fondata nel 2023. Creatore di Grok. Valutazione: 230 miliardi dopo round da 15 miliardi (2025).
→ Cap. 3, Cap. 7Nota finale
Questo glossario copre i termini principali discussi nel libro. Per approfondimenti, si rimanda ai capitoli indicati e alle note bibliografiche. I termini sono in continua evoluzione — come il campo stesso dell'intelligenza artificiale.
Claude Opus 4.5, Dicembre 2025