Pagina principale La storia dell'Intelligenza Artificiale
Post
Cancella

La storia dell'Intelligenza Artificiale

Capitolo 21 – Breve Storia dell’Intelligenza Artificiale

L’Intelligenza Artificiale (IA) non è solo una branca dell’informatica: è un progetto culturale, filosofico e tecnologico che cerca di rispondere a una domanda antica: può una macchina pensare?
La sua storia non è lineare né priva di contraddizioni. È fatta di slanci visionari, disillusioni amare, scoperte inaspettate e ritorni ciclici di entusiasmo. Ripercorrerla significa non solo capire come si è evoluta una disciplina scientifica, ma anche come l’umanità ha ridefinito — più volte — il concetto stesso di “intelligenza”.

Le Origini: dalla Filosofia alla Logica

L’idea che il pensiero possa essere meccanizzato risale all’antichità. Nella Grecia classica, Aristotele elaborò la prima forma di logica formale, dimostrando che il ragionamento poteva essere ridotto a regole simboliche. Questa intuizione — che il pensiero segue schemi replicabili — è il fondamento epistemologico dell’IA.

Nel XVII secolo, Gottfried Wilhelm Leibniz, filosofo e matematico, immaginò una characteristica universalis: un linguaggio simbolico universale in cui ogni verità potesse essere calcolata come un’equazione. La sua calcolatrice universale (la calculus ratiocinator) anticipava l’idea di un sistema formale capace di derivare conclusioni da premesse, un concetto centrale nell’IA simbolica.

Il XIX secolo vide la convergenza tra logica e algebra. George Boole, con la sua algebra booleana (1854), mostrò che le operazioni logiche (vero/falso) potevano essere espresse come operazioni matematiche. Questo passaggio fu cruciale: rese possibile tradurre il ragionamento in linguaggio macchina.

Parallelamente, Charles Babbage concepì la Macchina Analitica, un computer meccanico programmabile tramite schede perforate. Fu però Ada Lovelace, collaboratrice e interprete visionaria di Babbage, a intuire qualcosa di più profondo. Nel 1843, annotò che la macchina avrebbe potuto manipolare non solo numeri, ma qualsiasi simbolo, compresi quelli della musica o dell’arte. Tuttavia, aggiunse un limite fondamentale: la macchina “non può originare nulla. Può fare solo ciò che sappiamo comandarle di fare”. Questa osservazione — nota oggi come Obiezione di Lady Lovelace — è ancora dibattuta nel contesto dell’IA generativa.

La Nascita dell’IA Moderna (1940–1956)

La Seconda Guerra Mondiale accelerò lo sviluppo delle macchine intelligenti. Alan Turing, crittanalista britannico, non solo contribuì a decifrare Enigma, ma pose le basi teoriche per l’informatica moderna con la Macchina di Turing (1936), un modello astratto di calcolo universale.

Nel 1950, nel saggio Computing Machinery and Intelligence, Turing propose un test pragmatico per l’intelligenza artificiale: se un giudice umano, conversando tramite testo con una macchina e un essere umano, non riesce a distinguerli, allora la macchina può essere considerata “intelligente”. Il Test di Turing non era tanto una definizione rigorosa quanto una provocazione filosofica, destinata a spostare il dibattito dall’ontologia (“che cos’è il pensiero?”) all’osservabilità (“come si comporta un pensatore?”).

Contemporaneamente, nel 1943, i neuroscienziati Warren McCulloch e Walter Pitts pubblicarono A Logical Calculus of the Ideas Immanent in Nervous Activity, in cui modellarono un neurone biologico come un circuito logico binario. Questo lavoro gettò le fondamenta delle reti neurali artificiali, introducendo l’idea che l’intelligenza potesse emergere da reti di unità semplici — un approccio radicalmente diverso da quello simbolico.

Il momento costitutivo arrivò nel 1956, al Dartmouth Summer Research Project on Artificial Intelligence. Organizzato da John McCarthy (che coniò il termine “Intelligenza Artificiale”), Marvin Minsky, Nathaniel Rochester e Claude Shannon, il workshop riunì i principali pionieri del campo con l’obiettivo ambizioso di “procedere sulla base della congettura che ogni aspetto dell’apprendimento o di qualsiasi altra caratteristica dell’intelligenza possa essere così precisamente descritto da poter costruire una macchina che lo simuli”. Nonostante pochi risultati concreti, Dartmouth segnò la nascita istituzionale dell’IA come disciplina autonoma.

L’Era dell’Entusiasmo e del Disincanto (1956–1980)

I primi due decenni furono dominati da un ottimismo quasi messianico. Minsky predisse che “entro una generazione… il problema della creazione dell’‘intelligenza artificiale’ sarà sostanzialmente risolto”. I ricercatori svilupparono programmi che sembravano miracolosi per l’epoca.

  • General Problem Solver (GPS) (1957), di Newell e Simon, applicava euristiche per risolvere problemi simbolici.
  • ELIZA (1966), creata da Joseph Weizenbaum al MIT, simulava uno psicoterapeuta rogeriano usando semplici pattern matching. Sorprendentemente, molti utenti credevano davvero di parlare con un essere umano — un fenomeno che Weizenbaum stesso criticò come ingenuità tecnologica.
  • SHRDLU (1970), di Terry Winograd, operava in un “mondo dei blocchi” virtuale, comprendendo frasi come “metti il cubo rosso sopra la piramide blu” e ragionando sulle azioni possibili. Era un esempio precoce di comprensione del linguaggio naturale in un dominio limitato.

Tuttavia, questi successi erano fragili. Funzionavano solo in mondi semplificati, senza rumore, ambiguità o contesto reale. Il rapporto Lighthill (1973), commissionato dal governo britannico, denunciò l’eccessivo hype e la scarsa utilità pratica della ricerca IA, portando a tagli drastici ai finanziamenti. Negli USA, la Defense Advanced Research Projects Agency (DARPA) seguì presto l’esempio. Nacque così il primo inverno dell’IA: un periodo di scetticismo istituzionale e isolamento accademico.

Il Rinascimento e i Sistemi Esperti (1980–1990)

L’IA tornò in auge grazie a un cambio di paradigma: invece di cercare un’intelligenza generale, ci si concentrò su competenze specializzate. Nacquero i sistemi esperti, programmi basati su motori inferenziali e basi di conoscenza codificate da umani.

  • DENDRAL (1965–1980), sviluppato a Stanford, identificava strutture molecolari da dati spettrometrici — un successo nella chimica organica.
  • MYCIN (1976), sempre a Stanford, diagnosticava infezioni batteriche e suggeriva antibiotici, superando in accuratezza molti medici. Tuttavia, non fu mai usato in clinica perché non integrava dati reali né gestiva incertezze in modo robusto.

Questi sistemi ebbero un impatto commerciale: aziende come Teknowledge e Intellicorp vendevano piattaforme per costruirli. Ma avevano limiti strutturali:

  • La conoscenza era manoscritta, non appresa.
  • Erano fragili: un dato fuori schema li faceva collassare.
  • Costosi da mantenere: aggiornare una base di conoscenza richiedeva esperti umani.

Nel frattempo, in ambito accademico, si rinnovava l’interesse per le reti neurali. L’articolo di Rumelhart, Hinton e Williams (1986) su backpropagation permise di addestrare reti multistrato, aprendo la strada al deep learning. Ma la comunità IA rimase divisa tra “symbolicists” (Minsky, McCarthy) e “connectionists” (Hinton, Rumelhart). Questa tensione — tra ragionamento esplicito e apprendimento implicito — è ancora viva oggi.

Alla fine degli anni ’80, i sistemi esperti persero appeal. Il costo superava i benefici, e l’IA simbolica non riusciva a scalare. DARPA, delusa, tagliò nuovamente i fondi. Iniziò il secondo inverno dell’IA.

L’Ascesa dell’IA Moderna (1990–2010): Dati, Probabilità e Pragmatismo

Negli anni ’90, l’IA abbandonò l’ambizione di replicare l’intelligenza umana e si fece pragmatica. Si affermò il paradigma del machine learning statistico: invece di codificare regole, si insegnava alle macchine a trovare pattern nei dati.

Fattori chiave:

  • L’esplosione di Internet generò enormi quantità di dati testuali e comportamentali.
  • L’aumento della potenza computazionale rese possibile l’addestramento di modelli complessi.
  • La comunità adottò metriche oggettive (es. accuratezza, F1-score) per valutare i sistemi.

Algoritmi come le macchine a vettori di supporto (SVM), i modelli di Markov nascosti (HMM) e i classificatori bayesiani naïf divennero standard in applicazioni industriali: riconoscimento vocale (Dragon Systems), filtraggio spam (SpamAssassin), raccomandazioni (Amazon, Netflix).

Il culmine simbolico di quest’era fu Deep Blue (IBM, 1997), che sconfisse Garry Kasparov a scacchi. Ma Deep Blue non “pensava”: era un sistema altamente ottimizzato per la ricerca esaustiva in un albero di mosse, con regole scritte da esperti. Era intelligenza specializzata, non generale.

Parallelamente, in Giappone, il progetto Fifth Generation Computer Systems (1982–1992) puntava su logica e Prolog per costruire macchine deduttive. Fallì, ma stimolò la ricerca globale.

L’Era del Deep Learning (2010–oggi)

Il vero punto di svolta arrivò nel 2012, quando AlexNet — una rete neurale convoluzionale (CNN) sviluppata da Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton — vinse di gran lunga la competizione ImageNet. La sua architettura, addestrata su GPU, ridusse l’errore di classificazione dal 26% al 15%, dimostrando che le reti profonde potevano apprendere gerarchie di feature visive in modo automatico.

Da allora, il deep learning ha dominato:

  • Reti neurali ricorrenti (RNN) e poi Transformer hanno rivoluzionato il processing del linguaggio naturale.
  • AlphaGo (DeepMind, 2016) combinò deep learning, Monte Carlo Tree Search e reinforcement learning per battere Lee Sedol a Go — un gioco con complessità combinatoria superiore agli scacchi. A differenza di Deep Blue, AlphaGo “intuiva” mosse creative, sorprendendo gli esperti.
  • Modelli linguistici su larga scala (GPT, BERT, LLaMA) hanno mostrato capacità emergenti: comprensione contestuale, ragionamento induttivo, generazione coerente.

Questi progressi sono stati resi possibili da:

  • Hardware: GPU (NVIDIA), TPU (Google), e infrastrutture cloud.
  • Big Data: web crawling, social media, dataset aperti.
  • Open source: framework come TensorFlow (2015) e PyTorch (2016) hanno democratizzato l’accesso.

Oggi, l’IA è invisibile ma onnipresente: filtri fotografici, assistenti vocali, sistemi di guida autonoma, diagnosi mediche, trading algoritmico.

Sfide e Prospettive Future

Nonostante i successi, l’IA moderna è stretta, non generale: eccelle in compiti specifici ma manca di senso comune, causalità e adattabilità. Inoltre, solleva questioni urgenti:

  • Bias algoritmici: modelli addestrati su dati storici replicano disuguaglianze (es. discriminazione razziale nei prestiti).
  • Opacità: le reti neurali sono “scatole nere”, difficili da interpretare — un problema in ambiti critici come la giustizia o la sanità.
  • Disinformazione: i modelli generativi producono testi, immagini e video falsi ma credibili (deepfake).
  • Concentrazione del potere: poche aziende controllano i modelli più avanzati, con implicazioni geopolitiche.
  • Allineamento (AI alignment): come garantire che obiettivi di un sistema intelligente coincidano con quelli umani?

La ricerca si sta muovendo verso:

  • IA interpretabile (XAI)
  • Apprendimento con meno dati (few-shot, zero-shot learning)
  • Modelli multimodali (testo + immagine + audio)
  • Agenti autonomi capaci di pianificare e agire nel mondo reale

L’obiettivo ultimo rimane l’Intelligenza Artificiale Generale (AGI): un sistema con flessibilità cognitiva comparabile a quella umana. Mentre alcuni (es. DeepMind, OpenAI) la perseguono attivamente, altri avvertono che potrebbe richiedere non solo nuovi algoritmi, ma una nuova teoria della mente.

“L’IA è la nuova elettricità.”
Andrew Ng

Ma, come l’elettricità, va governata. La storia dell’IA ci insegna che il progresso tecnologico non è neutrale: è plasmato da scelte, valori e visioni del mondo. Comprendere questa storia non è un esercizio accademico: è un prerequisito per costruire un futuro in cui l’intelligenza artificiale serva l’umanità, non la sostituisca.

Questo post è sotto licenza CC BY 4.0 a nome dell'autore.