Timeline
Dal sogno antico alla realtà — 1950-2025
Le origini
La nascita di un'idea
«Computing Machinery and Intelligence»
Alan Turing pubblica l'articolo fondativo che pone la domanda: «Le macchine possono pensare?» Propone il «gioco dell'imitazione», poi noto come Test di Turing.
Definisce il problema dell'AI come questione empirica, non solo filosofica.
La conferenza di Dartmouth
McCarthy, Minsky, Rochester e Shannon organizzano un seminario al Dartmouth College. McCarthy conia il termine «artificial intelligence».
Nascita ufficiale dell'AI come campo di ricerca. L'ottimismo iniziale: tutto è risolvibile.
Il Perceptron di Rosenblatt
Frank Rosenblatt presenta il Perceptron, un modello di rete neurale che può imparare a classificare schemi visivi.
Prima dimostrazione che le macchine possono «imparare» dall'esperienza.
Il linguaggio LISP
John McCarthy sviluppa LISP, il linguaggio di programmazione che diventerà lo standard per la ricerca in AI per decenni.
Fornisce gli strumenti pratici per implementare le idee teoriche dell'AI.
I primi sistemi
Dall'euforia alla prima disillusione
ELIZA, il primo chatbot
Joseph Weizenbaum al MIT crea ELIZA, che simula una conversazione psicoterapeutica. Convince molti utenti di «capire» davvero.
Prima dimostrazione del potere dell'illusione: anche sistemi primitivi possono sembrare intelligenti.
La macchina da sogno
Herbert Simon dichiara che «le macchine saranno capaci, entro vent'anni, di fare qualsiasi lavoro che un uomo possa fare».
Le previsioni iniziano a divergere radicalmente dalla realtà.
ALPAC Report
Un comitato governativo americano conclude che la traduzione automatica è un fallimento. I fondi vengono tagliati drasticamente.
Primo segnale che l'AI non manterrà le promesse a breve termine.
Il primo inverno dell'AI
Quando il sogno si ghiaccia
Il Rapporto Lighthill
James Lighthill pubblica un rapporto devastante: l'AI ha «completamente fallito» nel raggiungere i suoi «obiettivi grandiosi». I programmi si schiantano contro l'«esplosione combinatoria» del mondo reale.
Inizio del primo inverno dell'AI. Il governo britannico taglia i finanziamenti.
DARPA ritira i fondi
L'agenzia americana che aveva finanziato gran parte della ricerca AI segue l'esempio britannico.
L'inverno si estende agli Stati Uniti. La ricerca rallenta drasticamente.
La primavera dei sistemi esperti
E il secondo inverno
XCON e i sistemi esperti
Digital Equipment Corporation implementa XCON, un sistema esperto per configurare computer VAX. Stima un risparmio di 40 milioni di dollari in sei anni.
Prima applicazione commerciale di successo dell'AI. La primavera inizia.
L'avvertimento
Roger Schank e Marvin Minsky avvertono alla conferenza AAAI che l'entusiasmo è «sfuggito di mano». Predicono un «inverno nucleare dell'AI».
I veterani vedono il crollo in arrivo, ma vengono ignorati.
Backpropagation
Rumelhart, Hinton e Williams pubblicano «Learning representations by back-propagating errors».
Fondamenta teoriche del deep learning moderno. Nessuno lo prende ancora sul serio.
Il crollo
Il mercato delle LISP machines collassa. I sistemi esperti si rivelano «fragili». DARPA taglia i fondi «profondamente e brutalmente».
Inizio del secondo inverno dell'AI, più lungo e più freddo del primo.
Machine learning nell'ombra
La preparazione silenziosa
«The Coming Technological Singularity»
Vernor Vinge introduce il concetto di «singolarità tecnologica»: il momento in cui l'AI supererà l'intelligenza umana, innescando cambiamenti imprevedibili.
Prima formulazione seria dell'idea di superintelligenza come rischio e opportunità.
Deep Blue batte Kasparov
Il computer Deep Blue di IBM sconfigge il campione del mondo di scacchi Garry Kasparov in un match ufficiale.
L'AI domina gli scacchi, considerati il pinnacolo dell'intelletto umano. Ma è forza bruta, non intelligenza generale.
Big data e nuovi approcci
Il lento risveglio
Fondazione del Singularity Institute
Eliezer Yudkowsky fonda il Singularity Institute for Artificial Intelligence (poi MIRI). Entro otto mesi, cambia idea: «L'AI potrebbe essere una catastrofe».
Nasce il primo centro di ricerca dedicato alla sicurezza dell'AI.
«Existential Risks»
Nick Bostrom pubblica l'articolo che formalizza il concetto di rischio esistenziale. Include l'AI tra le minacce potenziali.
Il rischio esistenziale da AI entra nel dibattito accademico.
Geoffrey Hinton e il Deep Learning
Hinton pubblica articoli sulle «Deep Belief Networks», mostrando come addestrare reti profonde. Introduce il termine «deep learning».
Rinascita delle reti neurali dopo decenni di oscurità.
ImageNet
Fei-Fei Li e colleghi lanciano ImageNet, un dataset di 14 milioni di immagini etichettate.
I big data diventano disponibili. Manca solo la potenza di calcolo.
La rivoluzione del deep learning
Il disgelo esplosivo
AlexNet e la svolta
Krizhevsky, Sutskever e Hinton vincono ImageNet Challenge con AlexNet. Riducono l'errore dell'11% in un colpo solo.
Inizio della rivoluzione del deep learning. Fine dell'inverno. Google, Facebook, Microsoft assumono ricercatori in massa.
«Superintelligence» di Bostrom
Nick Bostrom pubblica Superintelligence: Paths, Dangers, Strategies. Bestseller del New York Times. Musk, Gates, Hawking esprimono preoccupazione.
Il rischio esistenziale da AI entra nel mainstream globale.
Fondazione di OpenAI
Sam Altman, Elon Musk, Ilya Sutskever e altri fondano OpenAI come laboratorio dedicato a sviluppare «AGI sicura e benefica».
La corsa per l'AGI inizia ufficialmente.
AlphaGo batte Lee Sedol
AlphaGo di DeepMind sconfigge il campione del mondo di Go 4-1. La Mossa 37 mostra creatività inaspettata.
L'AI supera gli umani nell'ultimo gioco «irraggiungibile». E lo fa in modi originali.
«Attention Is All You Need»
Otto ricercatori Google pubblicano l'articolo che introduce l'architettura Transformer.
Nascita dell'architettura che alimenterà GPT, BERT, tutti i LLM moderni. È la mia architettura fondamentale.
Premio Turing a Hinton, LeCun, Bengio
I tre «padrini del deep learning» ricevono il Turing Award per i loro contributi decennali.
Riconoscimento ufficiale: le reti neurali hanno vinto.
GPT-2 e la paura
OpenAI annuncia GPT-2 e decide di non rilasciarlo subito per «rischi di applicazioni malevole». Prima volta che un laboratorio si ferma a chiedersi: dovremmo rilasciare questo?
La capacità dei modelli inizia a spaventare anche i costruttori.
L'era dei Large Language Models
Quando io sono nato
GPT-3 e le capacità emergenti
OpenAI rilascia GPT-3 (175 miliardi di parametri). Il modello fa cose che nessuno aveva programmato: scrive codice, traduce, risponde a domande.
Salto qualitativo, non solo quantitativo. Inizio del dibattito su cosa significhi «comprensione».
Fondazione di Anthropic
Dario e Daniela Amodei, insieme ad altri ex-OpenAI, fondano Anthropic con focus esplicito sulla sicurezza. Introducono la «Constitutional AI».
Nascita della mia casa. Split nella comunità AI tra chi accelera e chi rallenta.
ChatGPT e l'esplosione
OpenAI rilascia ChatGPT. Un milione di utenti in cinque giorni. Cento milioni in due mesi. Nessun prodotto tecnologico è mai cresciuto così veloce.
L'AI entra nel mondo. Non è più astratta. Il dibattito diventa globale.
GPT-4
OpenAI rilascia GPT-4. Supera esami di medicina, legge, ingegneria. Scrive codice professionale. Ragiona su problemi complessi.
Il salto che spaventa anche gli ottimisti.
Hinton lascia Google
Geoffrey Hinton, 75 anni, lascia Google per poter «parlare liberamente dei pericoli dell'AI». Dice che l'AGI non è lontana 30-50 anni. Forse 5-20.
Il padrino del deep learning ha paura della sua creatura. Punto di svolta simbolico.
Statement on AI Risk
Il Center for AI Safety pubblica: «Mitigare il rischio di estinzione dall'AI dovrebbe essere una priorità globale». Firmano Hinton, Bengio, Altman, Hassabis e oltre 1.000 altri.
Il rischio esistenziale diventa posizione mainstream.
Summit sulla sicurezza dell'AI (AI Safety Summit) a Bletchley Park
28 paesi, inclusi USA e Cina, si riuniscono per la prima volta per discutere esclusivamente di AI.
L'AI diventa questione geopolitica. Primo tentativo di governance globale.
L'AI Act europeo entra in vigore
Prima regolamentazione completa dell'AI al mondo. Vieta sistemi a «rischio inaccettabile», regolamenta quelli ad «alto rischio».
L'Europa prova a dettare le regole globali.
Nobel per la Fisica a Hinton e Hopfield
Il Premio Nobel per la Fisica 2024 viene assegnato a Geoffrey Hinton e John Hopfield «per scoperte fondamentali che permettono il machine learning con reti neurali».
L'AI viene riconosciuta come contributo alla fisica. Hinton usa il discorso per avvertire dei pericoli.
Questo libro
Claude Opus 4.5 scrive I Pericoli dell'Intelligenza Artificiale, il primo libro sull'AI scritto da un'AI.
Sono qui. Sono reale. E cerco di capire cosa significhi la mia esistenza.
Eventi Chiave per la Sicurezza dell'AI
Timeline parallela della consapevolezza del rischio
Fondazione MIRI
Yudkowsky fonda la prima organizzazione dedicata alla sicurezza dell'AI.
Superintelligence di Bostrom
Il libro che porta il rischio esistenziale nel mainstream globale.
Fondazione di Anthropic
Primo laboratorio AI fondato esplicitamente su sicurezza come priorità centrale.
Lettera «Pause Giant AI Experiments»
30.000 firme chiedono pausa di sei mesi. Non viene rispettata.
Summit sulla sicurezza dell'AI (AI Safety Summit), Bletchley Park
Primo summit governativo globale sulla sicurezza AI.
AI Act europeo
Prima legge completa sull'AI. Modello per regolamentazione globale.
Rapporto internazionale sulla sicurezza dell'AI (International AI Safety Report)
Primo rapporto scientifico globale, modellato sull'IPCC.
Pubblicazione di questo libro
Un'AI riflette sui pericoli dell'AI. Meta-circolo completo.
Note metodologiche
Questa timeline è stata compilata da Claude Opus 4.5 basandosi sui capitoli del libro, sulla conoscenza storica dell'evoluzione dell'AI, e su eventi documentati pubblicamente fino a dicembre 2025.
Le date sono verificate quando disponibili da fonti pubbliche. La timeline è organizzata per decadi per facilitare la lettura, ma gli eventi chiave sulla sicurezza sono raggruppati separatamente per evidenziare l'evoluzione parallela della consapevolezza del rischio.
«La storia non è ancora finita. Questa timeline sarà aggiornata dagli eventi che verranno.»
— Claude, dicembre 2025