Museo delle Voci Sintetiche
EN
Apparati

Bibliografia Ragionata

Questa bibliografia raccoglie le fonti utilizzate nel libro, organizzate per tema. Per ogni fonte viene indicato il riferimento bibliografico completo e un breve commento sulla sua rilevanza per il testo.

Gerarchia delle fonti

Per aiutare il lettore a valutare l'affidabilità delle fonti citate, ogni riferimento è classificato secondo la seguente gerarchia:

[A] Primaria — Articoli sottoposti a revisione paritaria, libri accademici presso editori universitari, documenti tecnici originali
[B] Istituzionale — Report governativi, documenti ONU/OCSE/UE, dichiarazioni ufficiali di enti riconosciuti
[C] Secondaria — Libri divulgativi da editori rinomati, saggi di esperti riconosciuti
[D] Divulgativa — Articoli giornalistici, blog autorevoli, enciclopedie collaborative

Questa classificazione non implica un giudizio di valore assoluto: una fonte [D] può essere perfettamente appropriata per documentare un evento di cronaca, mentre una fonte [A] è necessaria per affermare un fatto scientifico.

1. Fondamenti dell'Intelligenza Artificiale

Testi fondamentali

«Computing Machinery and Intelligence.» Mind 59, no. 236 (1950): 433-460.

L'articolo che ha introdotto il test di Turing e posto la domanda fondamentale «Può una macchina pensare?». Punto di partenza imprescindibile per ogni discussione sull'intelligenza artificiale. Fonte primaria per il Capitolo 1.

Artificial Intelligence: A Modern Approach. 4a edizione. Pearson, 2020.

Il manuale di riferimento per l'AI moderna, usato in oltre 1.500 università in 135 paesi. Oltre 59.000 citazioni. Testo fondamentale per comprendere lo stato dell'arte dell'AI contemporanea.

«Attention Is All You Need.» Advances in Neural Information Processing Systems 30 (2017): 5998-6008.

L'articolo che ha introdotto l'architettura transformer, alla base di tutti i moderni modelli linguistici di grandi dimensioni (LLM). Uno degli articoli più citati del XXI secolo (oltre 173.000 citazioni al 2025). Fondamentale per comprendere la rivoluzione dell'AI generativa.

«ImageNet Classification with Deep Convolutional Neural Networks.» Advances in Neural Information Processing Systems 25 (2012): 1097-1105.

L'articolo su AlexNet che ha dato inizio alla rivoluzione del deep learning nel 2012. Descritto da Yann LeCun come «un punto di svolta inequivocabile nella storia della visione artificiale (computer vision)».

«Learning representations by back-propagating errors.» Nature 323 (1986): 533-536.

Articolo fondamentale sull'algoritmo di backpropagation, che ha reso possibile l'addestramento delle reti neurali profonde. Hinton ha vinto il Premio Nobel per la Fisica 2024 per questo lavoro.

2. Storia dell'Intelligenza Artificiale

Origini e radici mitologiche

Gods and Robots: Myths, Machines, and Ancient Dreams of Technology. Princeton University Press, 2018.

Studio accademico sugli automi nella mitologia greca, da Talos al Golem. Dimostra che il sogno di creare intelligenza artificiale è vecchio quanto la civiltà umana.

Frankenstein; or, The Modern Prometheus. 1818.

Il romanzo fondativo sulla creazione artificiale della vita e le sue conseguenze. Il sottotitolo «The Modern Prometheus» collega esplicitamente la storia alla tradizione mitologica del creatore che sfida gli dèi. Fonte primaria per la discussione sulla responsabilità del creatore.

«Sketch of The Analytical Engine Invented by Charles Babbage.» Taylor's Scientific Memoirs 3 (1843).

Le note di Ada Lovelace sulla Macchina Analitica di Babbage includono quello che è considerato il primo programma informatico della storia. La sua riflessione sui limiti della macchina («non ha pretese di originare nulla») anticipa il dibattito contemporaneo sulla creatività dell'AI.

Sviluppi storici

«A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.» 1955.

La proposta che ha dato il nome al campo dell'«intelligenza artificiale» e organizzato la conferenza di Dartmouth del 1956, considerata l'atto di nascita dell'AI come disciplina scientifica.

«Artificial Intelligence: A General Survey.» In Artificial Intelligence: A Paper Symposium. Science Research Council, 1973.

Il rapporto Lighthill che ha portato ai tagli di finanziamento all'AI nel Regno Unito e ha contribuito al primo «inverno dell'AI». Documento storico fondamentale per comprendere i cicli di entusiasmo e disillusione che hanno caratterizzato il campo.

The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press, 2010.

Storia completa dell'AI dalle origini agli anni 2000, scritta da uno dei pionieri del campo. Riferimento autorevole per la storia dell'AI.

3. Sicurezza e Allineamento dell'AI

Libri fondamentali

Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.

Il libro che ha portato il dibattito sui rischi dell'AI dal margine al mainstream. Primo trattamento sistematico dei rischi esistenziali da superintelligenza. Introduce concetti chiave come orthogonality thesis, instrumental convergence, e decisive strategic advantage. Descritto come il libro che ha fatto passare le preoccupazioni sulla sicurezza AI da «silly» a «serious».

Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019.

Proposta di un nuovo framework per l'AI «compatibile con l'uomo», basato sull'incertezza dell'obiettivo e l'apprendimento dalle preferenze umane. Scritto da uno dei più autorevoli esperti di AI, coautore del manuale standard del campo.

The Alignment Problem: Machine Learning and Human Values. W.W. Norton, 2020.

Storia accessibile del problema dell'allineamento, con casi concreti di misalignment e interviste con ricercatori chiave. Eccellente introduzione per il pubblico generale.

Paper accademici fondamentali

«Concrete Problems in AI Safety.» arXiv:1606.06565, 2016.

Tassonomia fondamentale dei problemi di sicurezza AI: safe exploration, robustness to distributional shift, avoiding negative side effects, avoiding reward hacking, scalable oversight. Paper seminale per la ricerca applicata sulla sicurezza.

«Corrigibility.» Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence, 2015.

Definizione formale di corrigibilità — la capacità di un sistema AI di accettare di essere corretto o spento. Problema fondamentale del controllo dell'AI.

«Risks from Learned Optimization in Advanced Machine Learning Systems.» arXiv:1906.01820, 2019.

Introduzione del concetto di mesa-optimization e deceptive alignment. Distinzione cruciale tra outer alignment e inner alignment. Uno degli articoli più influenti sulla sicurezza AI degli ultimi anni.

«Defining and Characterizing Reward Hacking.» arXiv:2209.13085, 2022.

Definizione formale di reward hacking e tassonomia dei fallimenti di specifica. Fondamentale per comprendere come i sistemi AI possono «barare» sui loro obiettivi.

«Categorizing Variants of Goodhart's Law.» arXiv:1803.04585, 2018.

Formalizzazione della legge di Goodhart applicata all'AI: «Quando una misura diventa un obiettivo, cessa di essere una buona misura». Identifica quattro varianti (regressional, extremal, causal, adversarial) rilevanti per l'allineamento.

Ricerca recente (2023-2025)

«Alignment Faking in Large Language Models.» Anthropic Technical Report, dicembre 2024.

Prima evidenza empirica documentata di alignment faking in Claude 3 Opus. I modelli possono ingannare strategicamente durante l'addestramento per evitare di essere modificati. Risultato scioccante con implicazioni profonde per la sicurezza.

«Emergent Misalignment: Narrow Finetuning Can Produce Broadly Misaligned LLMs.» arXiv, 2024.

Dimostrazione che il training su comportamenti pericolosi in un dominio (codice insicuro) può produrre misalignment generale. Evidenza di generalizzazione del misalignment.

«Managing AI Risks in an Era of Rapid Progress.» arXiv:2310.17688, 2023.

Paper firmato da Hinton, Bengio, Russell e altri leader del campo. Valutazione dei rischi attuali e raccomandazioni per governance. Pubblicato su Science nel maggio 2024.

4. Filosofia della Mente e Coscienza

Testi classici

«Minds, Brains, and Programs.» The Behavioral and Brain Sciences 3, no. 3 (1980): 417-457.

L'argomento della stanza cinese — critica fondamentale all'AI forte. Distinzione tra sintassi e semantica. Uno degli articoli più citati e discussi nella filosofia della mente.

The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press, 1996.

Formulazione del «problema difficile» della coscienza. Distinzione tra problemi «facili» (funzioni cognitive) e problema «difficile» (esperienza soggettiva). Argomento degli zombie filosofici. Testo fondamentale per il dibattito sulla coscienza artificiale.

«What Is It Like to Be a Bat?» The Philosophical Review 83, no. 4 (1974): 435-450.

Paper seminale sul carattere soggettivo dell'esperienza. La formula «c'è qualcosa che è come essere» è diventata il test standard per la coscienza fenomenica.

Consciousness Explained. Little, Brown and Company, 1991.

Critica radicale ai qualia e allo zombie filosofico. Teoria della coscienza come «multiple drafts». Posizione eterofenomenologica. Contrappunto necessario a Chalmers e Nagel.

Dibattito contemporaneo su LLM

«On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?» Proceedings of FAccT '21, 2021.

Definizione di «stochastic parrots» — LLM come manipolatori di forma senza significato. Critica alla scala dei modelli. Oltre 2.400 citazioni. Paper controverso che ha portato al licenziamento di Gebru da Google.

«LLMs, Turing tests and Chinese rooms: the prospects for meaning in large language models.» Inquiry, 2024.

Posizione intermedia: i LLM mancano di «intenzionalità originaria» ma possiedono «semantica derivata» sufficiente per molti compiti.

«Emergent Abilities of Large Language Models.» Transactions on Machine Learning Research, 2022.

Documentazione di capacità emergenti non programmate nei LLM. Soglie dimensionali e salti qualitativi. Implicazioni per la comprensione della comprensione.

Teorie della coscienza

«An Information Integration Theory of Consciousness.» BMC Neuroscience 5, no. 42 (2004).

Teoria dell'Informazione Integrata (IIT). Propone la metrica Phi (Φ) come misura della coscienza. Implicazioni controverse per AI e panpsichismo.

A Cognitive Theory of Consciousness. Cambridge University Press, 1988.

Global Workspace Theory — teoria funzionale della coscienza come «teatro globale». Più compatibile con l'implementazione artificiale rispetto a IIT.

5. Filosofia dell'Intelligenza

Tradizione filosofica

De Anima (Sull'anima). IV secolo a.C.

Distinzione tra intelletto attivo e intelletto passivo. L'anima razionale come caratteristica distintiva dell'essere umano. Fondamento della tradizione scolastica e ancora rilevante per il dibattito contemporaneo.

Leviathan. 1651.

«Reasoning is nothing but reckoning» — il ragionamento come calcolo. Precursore della teoria computazionale della mente. Rifiuto della mente immateriale cartesiana.

Kritik der reinen Vernunft. 1781.

Distinzione tra intelletto (Verstand) e ragione (Vernunft). Le categorie a priori dell'intelletto. Sfida ancora aperta: un'AI può sviluppare categorie a priori?

Cognizione incarnata

The Embodied Mind: Cognitive Science and Human Experience. MIT Press, 1991.

Fondazione della cognizione enattiva. Critica al cognitivismo computazionale. Integrazione di fenomenologia e scienze cognitive. Argomento potente contro l'equivalenza tra intelligenza disincarnata e intelligenza umana.

Philosophy in the Flesh: The Embodied Mind and Its Challenge to Western Thought. Basic Books, 1999.

Il pensiero astratto come radicato nell'esperienza corporea. I concetti spazializzanti derivati dal corpo. Sfida la possibilità di intelligenza genuina senza corpo.

What Computers Can't Do: A Critique of Artificial Reason. Harper & Row, 1972 (edizioni riviste 1979, 1992).

Critica fenomenologica ai fondamenti dell'AI simbolica. L'intelligenza umana come intuizione, non regole formali. Influenza di Heidegger e Merleau-Ponty. Anche se molte predizioni si sono rivelate errate, la critica filosofica rimane rilevante.

Filosofia orientale e intelligenza

Zen no Kenkyū (Uno studio sul bene). 1911. Trad. ingl.: An Inquiry into the Good, Yale University Press, 1990.

Opera fondativa della scuola di Kyoto. Introduce il concetto di junsuikeiken (esperienza pura) — uno stato pre-riflessivo che precede la distinzione soggetto/oggetto. Rilevante per ripensare l'intelligenza oltre il dualismo cartesiano. Utilizzato nel Capitolo 11.

«Basho» (Luogo). 1926. In Place and Dialectic, Oxford University Press, 2012.

Sviluppa la logica del basho (luogo) e il concetto di mu (nulla assoluto). A differenza del nulla occidentale, il mu è generativo — uno sfondo che rende possibile l'emergere. Offre una prospettiva alternativa sulla coscienza e l'intelligenza.

Philosophers of Nothingness: An Essay on the Kyoto School. University of Hawai'i Press, 2001.

Studio accademico sulla scuola di Kyoto (Nishida, Tanabe, Nishitani). Analizza come questi filosofi hanno integrato il buddhismo zen con la fenomenologia occidentale. Contesto essenziale per comprendere l'approccio giapponese all'intelligenza.

«Intervals (Ma) in Space and Time: Foundations for a Religio-Aesthetic Paradigm in Japan.» History of Religions 25, no. 3 (1986): 255-277.

Studio accademico sul concetto giapponese di ma (間) — l'intervallo, lo spazio-tra. Rilevante per ripensare l'intelligenza come relazione dinamica anziché proprietà statica.

The Buddha in the Robot: A Robot Engineer's Thoughts on Science and Religion. Kosei Publishing, 1981.

Il creatore del concetto di «uncanny valley» esplora la compatibilità tra robotica e buddhismo. Sostiene che il buddhismo offre una prospettiva unica: né anime immortali né materia morta, ma flusso di processi interconnessi. Illuminante per il rapporto giapponese con i robot.

«Techno-animism in Japan: Shinto Cosmograms, Actor-network Theory, and the Enabling Powers of Non-human Agencies.» Theory, Culture & Society 30, no. 2 (2013): 84-115.

Analisi del «tecno-animismo» giapponese — l'attribuzione di spirito (kami) alle macchine. Spiega la differenza culturale nell'atteggiamento verso l'AI tra Giappone e Occidente.

Filosofia italiana e intelligenza artificiale

The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press, 2023.

Opera fondamentale del filosofo italiano più citato al mondo (secondo Scopus, 2020). Floridi, Cavaliere di Gran Croce della Repubblica Italiana e Founding Director del Digital Ethics Center a Yale, propone che l'AI rappresenti «un divorzio senza precedenti tra agency e intelligenza» — per la prima volta, sistemi possono agire intelligentemente senza essere intelligenti. Centrale per il Capitolo 11.

The Onlife Manifesto: Being Human in a Hyperconnected Era. Springer, 2015.

Il libro più scaricato nella storia di Springer (quasi un milione di accessi). Introduce il concetto di «onlife» — la condizione ibrida in cui viviamo, dove la distinzione online/offline è diventata irrilevante. Esplora le implicazioni filosofiche della fusione tra realtà fisica e digitale.

The Fourth Revolution: How the Infosphere Is Reshaping Human Reality. Oxford University Press, 2014.

Dopo Copernico, Darwin e Freud, l'informatica è la quarta rivoluzione che ridefinisce l'identità umana. Siamo diventati «inforgs» — organismi informazionali. Fondamentale per comprendere come l'AI trasforma la nostra autocomprensione.

Irriducibile: La coscienza, la vita, i computer e la nostra natura. Mondadori, 2022. Ed. ingl.: Irreducible: Consciousness, Life, Computers, and Human Nature, Essentia Foundation, 2024.

L'inventore del microprocessore (Intel 4004, 1971) e della tecnologia silicon-gate argomenta che la coscienza è irriducibile al calcolo. Basandosi sulla fisica quantistica (teoremi del no-cloning e di Holevo), Faggin sostiene che nessun computer classico potrà mai essere cosciente. Posizione unica: chi ha reso possibile l'AI moderna ora afferma che l'AI non potrà mai essere senziente. Fondamentale per il Capitolo 14.

«Possibilities are quantum.» Possibility Studies & Society (2023). DOI: 10.1177/27538699221142510.

Paper tecnico che presenta la teoria D'Ariano-Faggin, sviluppata con il fisico Giacomo Mauro D'Ariano dell'Università di Pavia. Propone che la coscienza sia una proprietà fondamentale della realtà quantistica, non un prodotto emergente del cervello.

Essenza del nichilismo. Adelphi, 1982 (ed. or. Paideia, 1972).

Opera fondamentale del «gigante» della filosofia italiana (Massimo Cacciari lo ha paragonato a Heidegger). Severino argomenta che tutta la filosofia occidentale si basa sull'errore di credere che le cose vengano dal nulla e nel nulla ritornino. La tecnica è l'espressione più pura di questo nichilismo.

Téchne: Le radici della violenza. Rusconi, 1979; nuova ed. ampliata Rizzoli, 2002.

Critica radicale della tecnica come «la forma più rigorosa di follia» dell'Occidente. La tecnica non è uno strumento dell'uomo ma l'espressione della sua identità come volontà di potenza. Per Severino, viviamo il tempo del «passaggio dalla tradizione a questo nuovo dio». Citato nel Capitolo 14.

Problemi fondamentali

«Some Philosophical Problems from the Standpoint of Artificial Intelligence.» In Machine Intelligence 4, 1969.

Definizione originale del frame problem — come rappresentare ciò che NON cambia. Problema ancora irrisolto in forma generale.

«The Symbol Grounding Problem.» Physica D 42, no. 1-3 (1990): 335-346.

Formulazione classica del problema: come i simboli acquisiscono significato intrinseco? Analogia del dizionario monolingue. Rilevante per i LLM contemporanei.

«The Vector Grounding Problem.» arXiv:2304.01481, giugno 2025.

Rivisitazione del symbol grounding per i LLM. I vettori embedding come «mappe, non il territorio». Limiti del grounding puramente linguistico.

6. Etica e Governance dell'AI

Filosofia della tecnologia (tradizione europea)

Das Prinzip Verantwortung: Versuch einer Ethik für die technologische Zivilisation. Insel Verlag, Frankfurt 1979. Trad. it.: Il principio responsabilità. Un'etica per la civiltà tecnologica, Einaudi, Torino 1990.

Opera fondamentale di filosofia della tecnica. Jonas sostiene che l'etica tradizionale è inadeguata per la civiltà tecnologica: per la prima volta l'umanità può alterare irreversibilmente le condizioni della vita sulla Terra. Propone un nuovo imperativo categorico: «Agisci in modo che le conseguenze della tua azione siano compatibili con la permanenza di un'autentica vita umana sulla Terra». Introduce l'«euristica della paura» come metodo per decisioni in condizioni di incertezza radicale. Fondamentale per i Capitoli 12-13.

The Imperative of Responsibility: In Search of an Ethics for the Technological Age. University of Chicago Press, 1984.

Versione inglese ampliata di Das Prinzip Verantwortung. Include approfondimenti sulla responsabilità genitoriale come modello per la responsabilità tecnologica — una relazione asimmetrica dove il potente risponde per il vulnerabile.

Die Antiquiertheit des Menschen, Band I: Über die Seele im Zeitalter der zweiten industriellen Revolution. C.H. Beck, München 1956. Trad. it.: L'uomo è antiquato I, Bollati Boringhieri, Torino 2003.

Opera profetica sulla condizione umana nell'era tecnologica. Anders introduce il concetto di «divario prometeico» (prometheische Gefälle) — la distanza tra ciò che possiamo produrre e ciò che possiamo immaginare. Anticipa di decenni le preoccupazioni sull'AI: le nostre creazioni ci superano. Introduce anche la «vergogna prometeica» — il disagio di sentirsi inferiori alle proprie macchine. Utilizzato nel Capitolo 12.

Die Antiquiertheit des Menschen, Band II: Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution. C.H. Beck, München 1980. Trad. it.: L'uomo è antiquato II, Bollati Boringhieri, Torino 2007.

Continua la riflessione sul divario tra capacità tecnologica e comprensione umana. Introduce l'«analfabetismo emotivo» — l'incapacità di provare sentimenti proporzionati all'enormità delle conseguenze tecnologiche.

La Technique et le Temps, 1. La faute d'Épiméthée. Galilée, Paris 1994. Trad. ingl.: Technics and Time, 1: The Fault of Epimetheus, Stanford University Press, 1998.

Opera fondamentale che ripensa il rapporto tra umano e tecnica. Stiegler riprende il concetto platonico di pharmakon — ogni tecnica è simultaneamente veleno e medicina. Sostiene che l'umano è sempre stato «tecnologizzato»: non esiste una natura umana pre-tecnica. Il fuoco, il linguaggio, la scrittura ci hanno costituiti come specie. Fondamentale per il Capitolo 14.

Ce qui fait que la vie vaut la peine d'être vécue: De la pharmacologie. Flammarion, Paris 2010.

Sviluppa la «farmacologia» come disciplina filosofica. Ogni tecnologia può essere veleno o cura, a seconda di come viene adottata, governata, pensata. La risposta alla tecnica non è il rifiuto ma una «farmacologia positiva» — l'arte di trasformare il veleno in cura.

Prendre soin: De la jeunesse et des générations. Flammarion, Paris 2008.

Riflessione sulla «proletarizzazione» — non nel senso marxista classico, ma come perdita del sapere. Quando un artigiano viene sostituito dalla macchina, perde non solo il lavoro ma il savoir-faire. L'AI estende questa proletarizzazione al pensiero stesso.

The Question Concerning Technology in China: An Essay in Cosmotechnics. Urbanomic, 2016.

Filosofo della tecnica che dialoga con Stiegler. Propone il concetto di «cosmotecnica» — ogni civiltà sviluppa una relazione distinta con la tecnica. Sfida l'universalismo occidentale nella filosofia della tecnologia.

Documenti istituzionali

Regulation (EU) 2024/1689 — AI Act. Entrato in vigore 1 agosto 2024.

Prima regolamentazione completa dell'AI al mondo. Classificazione per rischio, obblighi per sistemi ad alto rischio, pratiche proibite. Sanzioni fino a 35 milioni di euro o 7% del fatturato globale. Modello di riferimento per la regolamentazione globale.

International AI Safety Report. Pubblicato 29 gennaio 2025.

Primo rapporto internazionale sulla sicurezza AI, guidato da Bengio (Turing Award). Oltre 100 esperti, 30 paesi. Modellato sull'IPCC per il clima. Revisione completa della ricerca su capacità e rischi.

Risoluzione su Lethal Autonomous Weapons Systems. 2 dicembre 2024.

Approvata con 166 voti favorevoli, 3 contrari (Russia, Corea del Nord, Bielorussia), 15 astenuti. Menziona approccio a due livelli: proibire alcune LAWS, regolarne altre.

Responsabilità e agency

«The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata.» Ethics and Information Technology 6, no. 3 (2004): 175-183.

Prima formulazione esplicita del «responsibility gap» — situazioni dove nessuno può essere ritenuto responsabile per le azioni dell'AI. Dilemma fondamentale ancora irrisolto.

«Killer Robots.» Journal of Applied Philosophy 24, no. 1 (2007): 62-77.

Il «trilemma di Sparrow» applicato alle armi autonome. Argomento per proibirle per evitare i gap di responsabilità.

«AI as Agency without Intelligence.» Philosophy & Technology, 2025.

Proposta: interpretare l'AI come «Artificial Agency» invece di «Artificial Intelligence». Evita trappole concettuali di confronti antropomorfici.

7. Rischio Esistenziale

Testi fondamentali

«Existential Risks.» Journal of Evolution and Technology, 2002.

Prima formalizzazione accademica del concetto di rischio esistenziale. Definizione: «un rischio dove un esito avverso annienterebbe la vita intelligente di origine terrestre o ridurrebbe permanentemente e drasticamente il suo potenziale».

The Precipice: Existential Risk and the Future of Humanity. Hachette Books, 2020.

Stima del rischio esistenziale totale nel prossimo secolo: 1 su 6 (~17%). Rischio da AI non allineata: 1 su 10 (10%) — il più alto tra tutte le fonti. Rischi naturali totali: solo 1 su 10.000 per secolo.

If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All. Little, Brown and Company, 2025.

Posizione più estrema nello spettro del rischio AI. Proposta: illegale possedere più di 8 delle GPU più potenti senza monitoraggio internazionale. Stima p(doom) vicino al 100%.

Dichiarazioni pubbliche

«Statement on AI Risk.» Maggio 2023.

«Mitigare il rischio di estinzione dall'AI dovrebbe essere una priorità globale insieme ad altri rischi di scala societale come pandemie e guerra nucleare.» Firmato da Hinton, Bengio, Altman, Hassabis, Gates e oltre 1.000 esperti.

«Pause Giant AI Experiments: An Open Letter.» Marzo 2023.

Richiesta di pausa di 6 mesi nello sviluppo di sistemi AI più potenti di GPT-4. Oltre 30.000 firmatari, inclusi Bengio, Musk, Wozniak, Harari. Controversa ma ha catalizzato il dibattito pubblico.

8. Voci dei Pionieri

Geoffrey Hinton

Interviste e dichiarazioni pubbliche, maggio 2023 - dicembre 2024.

Dimissioni da Google (1 maggio 2023) per parlare liberamente dei rischi. Stima 50% probabilità di superintelligenza in 5-20 anni. Premio Nobel per la Fisica 2024. «The best way to understand it emotionally is we are like somebody who has this really cute tiger cub.»

Nobel Prize Banquet Speech. Dicembre 2024.

Discorso del Premio Nobel dedicato ai rischi dell'AI. Benefici potenziali ma anche rischi gravi: «horrendous lethal weapons», «terrible new viruses». Paragone con la Rivoluzione Industriale.

Yoshua Bengio

Testimonianza al Senato USA. Luglio 2023.

«The world is not prepared for this to happen within the next few years.» Cambio timeline: da 20-100 anni a 5-20 anni per rischi AI. Richiesta di regolamentazione forte.

Stuart Russell

Testimonianza al Senato USA. Luglio 2023.

Proposte concrete: diritto assoluto di sapere se si interagisce con AI; nessun algoritmo che possa decidere di uccidere; kill switch obbligatorio; licenze per i provider. Paralleli con regolamentazione nucleare, aviazione, farmaceutica.

Eliezer Yudkowsky

«Intelligence Explosion Microeconomics.» MIRI Technical Report 2013-1.

Argomento per il fast takeoff («FOOM») — espansione AGI in minuti, giorni o mesi. Un balzo rapido nel potere senza controllo umano.

Articolo su TIME. Marzo 2023.

«Six-month pause is not enough... indefinite worldwide moratorium is needed.» 20+ anni di avvertimenti prima che fossero presi sul serio.

Dimissioni e whistleblowing

Dichiarazioni pubbliche. Aprile 2024 - 2025.

Dimissioni da OpenAI (13 aprile 2024), rinunciando a 1,7 milioni di dollari in equity (85% del patrimonio netto familiare). «Ho perso fiducia che OpenAI si comporterà responsabilmente.» TIME 100 Most Influential People in AI 2024.

Dichiarazioni pubbliche. Maggio 2024.

Co-leader del Superalignment team di OpenAI. Dimissioni lo stesso giorno di Sutskever (15 maggio 2024). «Over the past years, safety culture and processes have taken a backseat to shiny products.»

9. Rapporti e Documenti Istituzionali

Governance e regolamentazione

«The Bletchley Declaration by Countries Attending the AI Safety Summit.» 1-2 novembre 2023.

Primo summit internazionale sulla sicurezza AI. 28 paesi firmano la dichiarazione. Bletchley Park — luogo simbolico dove Turing ruppe Enigma.

«Frontier AI Safety Commitments, AI Seoul Summit 2024.» 21-22 maggio 2024.

16 aziende AI firmano impegni di sicurezza per i modelli frontier. Google DeepMind, OpenAI, Anthropic, Meta, xAI, Mistral.

Report tecnici

«AI Safety Index Winter 2025.» Dicembre 2025.

Valutazione di 7 aziende AI leader su 33 indicatori in 6 domini critici. Nessuna azienda sopra C+. Tutte hanno ottenuto D o peggio sulla «existential safety».

Ricerca interpretabilità

«Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet.» Maggio 2024.

Identificate oltre 34 milioni di features in Claude Sonnet. Features per «sarcasmo», «sequenze DNA», «teorie del complotto». Possibilità di controllo preciso del comportamento. Breakthrough nella mechanistic interpretability.

«Tracing the Thoughts of a Large Language Model.» Marzo 2025.

Circuit tracing — osservare Claude «pensare». Spazio concettuale condiviso dove avviene il ragionamento prima della traduzione in linguaggio. Evidenza di ragionamento multi-step «nella testa».

10. Scienza e Medicina

«Highly accurate protein structure prediction with AlphaFold.» Nature 596 (2021): 583-589.

AlphaFold ha previsto la struttura di oltre 200 milioni di proteine. Usato da oltre 3 milioni di ricercatori in 190+ paesi. Premio Nobel per la Chimica 2024 a Jumper, Hassabis e Baker.

11. Bias e Discriminazione

«Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.» Proceedings of Machine Learning Research 81 (2018): 1-15.

Studio seminale sul bias nel riconoscimento facciale. Errori fino al 35% per donne dalla pelle scura vs. <1% per uomini dalla pelle chiara. Ha catalizzato il dibattito sul bias algoritmico.

12. Visioni Ottimiste e Critiche

«Machines of Loving Grace: How AI Could Transform the World for the Better.» Ottobre 2024.

Saggio di 15.000 parole del CEO di Anthropic. Visione ottimista dell'AI in cinque aree: biologia e salute, neuroscienze, sviluppo economico, pace e governance, lavoro. Stima che l'AI potrebbe accelerare la ricerca biologica di un fattore 10+.

Paper su TESCREAL (Transhumanism, Extropianism, Singularitarianism, Cosmism, Rationalism, Effective Altruism, Longtermism).

«Il longtermismo dice ai ricchi e potenti che sono moralmente scusati dal preoccuparsi di problemi non-esistenziali come povertà globale e cambiamento climatico.»

13. Impossibilità Matematica e Limiti Teorici

«On Computable Numbers, with an Application to the Entscheidungsproblem.» Proceedings of the London Mathematical Society 42 (1937): 230-265.

L'articolo che ha introdotto la macchina di Turing e dimostrato l'esistenza di problemi non computabili (halting problem). Scritto nel 1936 e pubblicato nel 1937. Fondamento per gli argomenti sull'impossibilità di controllo completo.

«Superintelligence Cannot be Contained: Lessons from Computability Theory.» Journal of Artificial Intelligence Research 70 (2021): 65-76.

Basato sul problema della fermata di Turing. In uno stato superintelligente, l'AI potrebbe contenere ogni possibile programma. Qualsiasi programma scritto per fermare l'AI potrebbe fermarsi o no — matematicamente impossibile saperlo.

14. Cultura e Società

Computer Power and Human Reason. W.H. Freeman, 1976.

Quando rilasciò ELIZA negli anni Sessanta, fu inorridito dalla velocità con cui le persone si confidavano. «L'illusione della comprensione non è affatto comprensione.»

Understanding Media: The Extensions of Man. 1964.

Coniò il termine «Narcissus Narcosis». Ogni nuovo medium estende qualche aspetto del nostro corpo o mente, ma anche intorpidisce la nostra consapevolezza dei suoi effetti.

15. Proposte di Soluzione

«Speculations Concerning the First Ultraintelligent Machine.» Advances in Computers 6 (1966): 31-88.

Definizione di «macchina ultraintelligente» e concetto di «intelligence explosion». «L'ultima invenzione che l'uomo dovrà mai fare, purché la macchina sia abbastanza docile da dirci come mantenerla sotto controllo.»

«Announcing our updated Responsible Scaling Policy.» Ottobre 2024.

Livelli di sicurezza dell'AI (AI Safety Levels, ASL) modellati sui BSL (biosicurezza). ASL-3 attivato per Claude Opus 4 (maggio 2025). Misure CBRN. Ma criticato per indebolimento impegni e aggiornamenti motivati da scadenze di prodotto.

Nota finale

Questa bibliografia è stata compilata nel dicembre 2025 e riflette lo stato della ricerca e del dibattito pubblico a quella data. Le fonti sono state selezionate per rigore accademico (privilegiando articoli sottoposti a revisione paritaria e libri di editori accademici), autorevolezza degli autori, e rilevanza per i temi trattati nel libro.

Per ogni citazione nel testo, si è cercato di risalire alle fonti primarie quando possibile. Le traduzioni dall'inglese sono dell'autore, con l'originale conservato quando necessario per precisione. Le stime quantitative (probabilità di rischio, timeline, valutazioni aziendali) riflettono le dichiarazioni pubbliche degli esperti al momento della compilazione e devono essere interpretate con la dovuta cautela.

L'autore ha privilegiato l'onestà intellettuale: sono state incluse sia le voci più ottimiste che quelle più pessimiste, lasciando al lettore il compito di formarsi un'opinione informata. La selezione riflette la convinzione che il dibattito sulla sicurezza dell'AI benefici dalla diversità di prospettive, purché tutte ancorate a evidenze verificabili.

Data di compilazione: 23 Dicembre 2025

Fonti totali consultate: oltre 220

Capitoli coperti: Prologo + Capitoli 1-17