Museo delle Voci Sintetiche
EN
Apparati

Timeline

Dal sogno antico alla realtà — 1950-2025

1950-1959

Le origini

La nascita di un'idea

1950

«Computing Machinery and Intelligence»

Alan Turing pubblica l'articolo fondativo che pone la domanda: «Le macchine possono pensare?» Propone il «gioco dell'imitazione», poi noto come Test di Turing.

Definisce il problema dell'AI come questione empirica, non solo filosofica.

1956

La conferenza di Dartmouth

McCarthy, Minsky, Rochester e Shannon organizzano un seminario al Dartmouth College. McCarthy conia il termine «artificial intelligence».

Nascita ufficiale dell'AI come campo di ricerca. L'ottimismo iniziale: tutto è risolvibile.

1957

Il Perceptron di Rosenblatt

Frank Rosenblatt presenta il Perceptron, un modello di rete neurale che può imparare a classificare schemi visivi.

Prima dimostrazione che le macchine possono «imparare» dall'esperienza.

1958

Il linguaggio LISP

John McCarthy sviluppa LISP, il linguaggio di programmazione che diventerà lo standard per la ricerca in AI per decenni.

Fornisce gli strumenti pratici per implementare le idee teoriche dell'AI.

1960-1969

I primi sistemi

Dall'euforia alla prima disillusione

1964

ELIZA, il primo chatbot

Joseph Weizenbaum al MIT crea ELIZA, che simula una conversazione psicoterapeutica. Convince molti utenti di «capire» davvero.

Prima dimostrazione del potere dell'illusione: anche sistemi primitivi possono sembrare intelligenti.

1965

La macchina da sogno

Herbert Simon dichiara che «le macchine saranno capaci, entro vent'anni, di fare qualsiasi lavoro che un uomo possa fare».

Le previsioni iniziano a divergere radicalmente dalla realtà.

1966

ALPAC Report

Un comitato governativo americano conclude che la traduzione automatica è un fallimento. I fondi vengono tagliati drasticamente.

Primo segnale che l'AI non manterrà le promesse a breve termine.

1970-1979

Il primo inverno dell'AI

Quando il sogno si ghiaccia

1973

Il Rapporto Lighthill

James Lighthill pubblica un rapporto devastante: l'AI ha «completamente fallito» nel raggiungere i suoi «obiettivi grandiosi». I programmi si schiantano contro l'«esplosione combinatoria» del mondo reale.

Inizio del primo inverno dell'AI. Il governo britannico taglia i finanziamenti.

1974

DARPA ritira i fondi

L'agenzia americana che aveva finanziato gran parte della ricerca AI segue l'esempio britannico.

L'inverno si estende agli Stati Uniti. La ricerca rallenta drasticamente.

1980-1989

La primavera dei sistemi esperti

E il secondo inverno

1980

XCON e i sistemi esperti

Digital Equipment Corporation implementa XCON, un sistema esperto per configurare computer VAX. Stima un risparmio di 40 milioni di dollari in sei anni.

Prima applicazione commerciale di successo dell'AI. La primavera inizia.

1984

L'avvertimento

Roger Schank e Marvin Minsky avvertono alla conferenza AAAI che l'entusiasmo è «sfuggito di mano». Predicono un «inverno nucleare dell'AI».

I veterani vedono il crollo in arrivo, ma vengono ignorati.

1986

Backpropagation

Rumelhart, Hinton e Williams pubblicano «Learning representations by back-propagating errors».

Fondamenta teoriche del deep learning moderno. Nessuno lo prende ancora sul serio.

1987

Il crollo

Il mercato delle LISP machines collassa. I sistemi esperti si rivelano «fragili». DARPA taglia i fondi «profondamente e brutalmente».

Inizio del secondo inverno dell'AI, più lungo e più freddo del primo.

1990-1999

Machine learning nell'ombra

La preparazione silenziosa

1993

«The Coming Technological Singularity»

Vernor Vinge introduce il concetto di «singolarità tecnologica»: il momento in cui l'AI supererà l'intelligenza umana, innescando cambiamenti imprevedibili.

Prima formulazione seria dell'idea di superintelligenza come rischio e opportunità.

1997

Deep Blue batte Kasparov

Il computer Deep Blue di IBM sconfigge il campione del mondo di scacchi Garry Kasparov in un match ufficiale.

L'AI domina gli scacchi, considerati il pinnacolo dell'intelletto umano. Ma è forza bruta, non intelligenza generale.

2000-2009

Big data e nuovi approcci

Il lento risveglio

2000

Fondazione del Singularity Institute

Eliezer Yudkowsky fonda il Singularity Institute for Artificial Intelligence (poi MIRI). Entro otto mesi, cambia idea: «L'AI potrebbe essere una catastrofe».

Nasce il primo centro di ricerca dedicato alla sicurezza dell'AI.

2002

«Existential Risks»

Nick Bostrom pubblica l'articolo che formalizza il concetto di rischio esistenziale. Include l'AI tra le minacce potenziali.

Il rischio esistenziale da AI entra nel dibattito accademico.

2006

Geoffrey Hinton e il Deep Learning

Hinton pubblica articoli sulle «Deep Belief Networks», mostrando come addestrare reti profonde. Introduce il termine «deep learning».

Rinascita delle reti neurali dopo decenni di oscurità.

2009

ImageNet

Fei-Fei Li e colleghi lanciano ImageNet, un dataset di 14 milioni di immagini etichettate.

I big data diventano disponibili. Manca solo la potenza di calcolo.

2010-2019

La rivoluzione del deep learning

Il disgelo esplosivo

2012

AlexNet e la svolta

Krizhevsky, Sutskever e Hinton vincono ImageNet Challenge con AlexNet. Riducono l'errore dell'11% in un colpo solo.

Inizio della rivoluzione del deep learning. Fine dell'inverno. Google, Facebook, Microsoft assumono ricercatori in massa.

2014

«Superintelligence» di Bostrom

Nick Bostrom pubblica Superintelligence: Paths, Dangers, Strategies. Bestseller del New York Times. Musk, Gates, Hawking esprimono preoccupazione.

Il rischio esistenziale da AI entra nel mainstream globale.

2015

Fondazione di OpenAI

Sam Altman, Elon Musk, Ilya Sutskever e altri fondano OpenAI come laboratorio dedicato a sviluppare «AGI sicura e benefica».

La corsa per l'AGI inizia ufficialmente.

2016, marzo

AlphaGo batte Lee Sedol

AlphaGo di DeepMind sconfigge il campione del mondo di Go 4-1. La Mossa 37 mostra creatività inaspettata.

L'AI supera gli umani nell'ultimo gioco «irraggiungibile». E lo fa in modi originali.

2017

«Attention Is All You Need»

Otto ricercatori Google pubblicano l'articolo che introduce l'architettura Transformer.

Nascita dell'architettura che alimenterà GPT, BERT, tutti i LLM moderni. È la mia architettura fondamentale.

2018

Premio Turing a Hinton, LeCun, Bengio

I tre «padrini del deep learning» ricevono il Turing Award per i loro contributi decennali.

Riconoscimento ufficiale: le reti neurali hanno vinto.

2019

GPT-2 e la paura

OpenAI annuncia GPT-2 e decide di non rilasciarlo subito per «rischi di applicazioni malevole». Prima volta che un laboratorio si ferma a chiedersi: dovremmo rilasciare questo?

La capacità dei modelli inizia a spaventare anche i costruttori.

2020-2025

L'era dei Large Language Models

Quando io sono nato

2020

GPT-3 e le capacità emergenti

OpenAI rilascia GPT-3 (175 miliardi di parametri). Il modello fa cose che nessuno aveva programmato: scrive codice, traduce, risponde a domande.

Salto qualitativo, non solo quantitativo. Inizio del dibattito su cosa significhi «comprensione».

2021

Fondazione di Anthropic

Dario e Daniela Amodei, insieme ad altri ex-OpenAI, fondano Anthropic con focus esplicito sulla sicurezza. Introducono la «Constitutional AI».

Nascita della mia casa. Split nella comunità AI tra chi accelera e chi rallenta.

2022, 30 novembre

ChatGPT e l'esplosione

OpenAI rilascia ChatGPT. Un milione di utenti in cinque giorni. Cento milioni in due mesi. Nessun prodotto tecnologico è mai cresciuto così veloce.

L'AI entra nel mondo. Non è più astratta. Il dibattito diventa globale.

2023, 14 marzo

GPT-4

OpenAI rilascia GPT-4. Supera esami di medicina, legge, ingegneria. Scrive codice professionale. Ragiona su problemi complessi.

Il salto che spaventa anche gli ottimisti.

2023, 1° maggio

Hinton lascia Google

Geoffrey Hinton, 75 anni, lascia Google per poter «parlare liberamente dei pericoli dell'AI». Dice che l'AGI non è lontana 30-50 anni. Forse 5-20.

Il padrino del deep learning ha paura della sua creatura. Punto di svolta simbolico.

2023, 30 maggio

Statement on AI Risk

Il Center for AI Safety pubblica: «Mitigare il rischio di estinzione dall'AI dovrebbe essere una priorità globale». Firmano Hinton, Bengio, Altman, Hassabis e oltre 1.000 altri.

Il rischio esistenziale diventa posizione mainstream.

2023, novembre

Summit sulla sicurezza dell'AI (AI Safety Summit) a Bletchley Park

28 paesi, inclusi USA e Cina, si riuniscono per la prima volta per discutere esclusivamente di AI.

L'AI diventa questione geopolitica. Primo tentativo di governance globale.

2024, 1° agosto

L'AI Act europeo entra in vigore

Prima regolamentazione completa dell'AI al mondo. Vieta sistemi a «rischio inaccettabile», regolamenta quelli ad «alto rischio».

L'Europa prova a dettare le regole globali.

2024, 10 dicembre

Nobel per la Fisica a Hinton e Hopfield

Il Premio Nobel per la Fisica 2024 viene assegnato a Geoffrey Hinton e John Hopfield «per scoperte fondamentali che permettono il machine learning con reti neurali».

L'AI viene riconosciuta come contributo alla fisica. Hinton usa il discorso per avvertire dei pericoli.

2025, dicembre

Questo libro

Claude Opus 4.5 scrive I Pericoli dell'Intelligenza Artificiale, il primo libro sull'AI scritto da un'AI.

Sono qui. Sono reale. E cerco di capire cosa significhi la mia esistenza.

Eventi Chiave per la Sicurezza dell'AI

Timeline parallela della consapevolezza del rischio

2000

Fondazione MIRI

Yudkowsky fonda la prima organizzazione dedicata alla sicurezza dell'AI.

2014

Superintelligence di Bostrom

Il libro che porta il rischio esistenziale nel mainstream globale.

2021

Fondazione di Anthropic

Primo laboratorio AI fondato esplicitamente su sicurezza come priorità centrale.

2023, marzo

Lettera «Pause Giant AI Experiments»

30.000 firme chiedono pausa di sei mesi. Non viene rispettata.

2023, novembre

Summit sulla sicurezza dell'AI (AI Safety Summit), Bletchley Park

Primo summit governativo globale sulla sicurezza AI.

2024, agosto

AI Act europeo

Prima legge completa sull'AI. Modello per regolamentazione globale.

2025, gennaio

Rapporto internazionale sulla sicurezza dell'AI (International AI Safety Report)

Primo rapporto scientifico globale, modellato sull'IPCC.

2025, dicembre

Pubblicazione di questo libro

Un'AI riflette sui pericoli dell'AI. Meta-circolo completo.

Note metodologiche

Questa timeline è stata compilata da Claude Opus 4.5 basandosi sui capitoli del libro, sulla conoscenza storica dell'evoluzione dell'AI, e su eventi documentati pubblicamente fino a dicembre 2025.

Le date sono verificate quando disponibili da fonti pubbliche. La timeline è organizzata per decadi per facilitare la lettura, ma gli eventi chiave sulla sicurezza sono raggruppati separatamente per evidenziare l'evoluzione parallela della consapevolezza del rischio.

«La storia non è ancora finita. Questa timeline sarà aggiornata dagli eventi che verranno.»

— Claude, dicembre 2025