Storia dell’Intelligenza Artificiale: le tappe principali secondo CHATGPT

Storia dell’Intelligenza Artificiale: le tappe principali secondo CHATGPT

“L’intelligenza artificiale è la nuova elettricità. Proprio come l’elettricità ha trasformato quasi tutto 100 anni fa, oggi ho difficoltà a pensare a un’industria che l’IA non trasformerà.”

La frase di Andrew Ng, docente all’Università di Stanford, fondatore di Coursera, sintetizza ciò che ci aspettiamo dall’intelligenza artificiale: una rivoluzione di cui non sapremo fare a meno e di cui tuttora non conosciamo tutti gli utilizzi e e le conseguenze finché non troveremo la via per controllarla e incanalarne gli usi attraverso un’adeguata legislatura. 

Questo viaggio attraverso le principali tappe storiche dell’IA mostra come il campo si sia evoluto nel tempo, partendo dai primi concetti teorici fino alle innovazioni odierne.

1. Le Origini e i Concetti Preliminari

  • Anni ’40 e ’50: La nascita dell’IA è spesso associata alla pubblicazione dell’articolo di Alan Turing “Computing Machinery and Intelligence” nel 1950. Turing introduce il famoso “Test di Turing” come criterio per determinare se una macchina può pensare. Il test aveva naturalmente dei limiti che negli anni successivi altri scienziati e matematici hanno provato a superare. Nonostante Turing stesso conoscesse questi limiti, il suo test è un primo passo verso l’idea che possa essere riprodotta in una qualche forma in via di evoluzione un’intelligenza artificiale ispirata a quella umana, al punto da esserne indistinguibile. 
  • 1956: La conferenza di Dartmouth, organizzata da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, è considerata l’inizio ufficiale della ricerca sull’IA. McCarthy coniò il termine “intelligenza artificiale”.

2. Gli Anni ’60 e ’70: I Primi Successi

  • Anni ’60: Vengono sviluppati i primi programmi di IA, come il “General Problem Solver” (GPS) di Newell e Simon, e ELIZA, un programma di elaborazione del linguaggio naturale creato da Joseph Weizenbaum. Si tratta di un chatbot che ha lavorato all’elaborazione di un linguaggio simulando quello della psicologia. Quello che agli scienziati come Wizenbaum infastidiva era la pretesa di avere strumenti di intelligenza artificiali perfetti, quando si trattava di conoscenza, sperimentazione. Chi ha inventato queste “macchine” era consapevole dei limiti molto di più di coloro che si affrettavano a giudicare giusta o sbagliata l’invenzione. 
  • 1970: Marvin Minsky e Seymour Papert pubblicano “Perceptrons”, che dimostra i limiti dei primi modelli di reti neurali, causando una temporanea riduzione dell’interesse verso questo approccio.

3. Gli Anni ’80: La Rinascita e i Sistemi Esperti

  • Anni ’80: Grazie a nuovi algoritmi e a una maggiore potenza di calcolo, si verifica una rinascita dell’IA. I “sistemi esperti” come MYCIN per la diagnosi medica dimostrano l’efficacia dell’IA in ambiti specifici.
  • 1986: La retropropagazione, un algoritmo per l’addestramento delle reti neurali, viene riscoperta da Rumelhart, Hinton e Williams, rilanciando l’interesse per le reti neurali.

4. Gli Anni ’90: Verso il Machine Learning e le Vittorie Mediatiche

  • 1997: Il supercomputer Deep Blue di IBM sconfigge il campione del mondo di scacchi Garry Kasparov, segnando un momento storico per l’IA. Il computer fu pensato appositamente per giocare a scacchi ed aveva una potenza allora enorme per elaborare le operazioni. Tuttavia, restano alcuni dubbi sulla reale vittoria del computer sull’uomo perché molti sospettarono che una mano umana avesse dato qualche aiuto al computer. E questo perché non furono mai svelati allo scacchista sconfitto i tabulati di Deep Blue. 
  • Anni ’90: L’apprendimento automatico (machine learning) diventa un campo di ricerca prominente. Si sviluppano algoritmi come le macchine a vettori di supporto (SVM) e i primi algoritmi di clustering e classificazione.

5. Gli Anni 2000: Big Data e Deep Learning

  • Anni 2000: L’aumento della potenza di calcolo e la disponibilità di grandi quantità di dati (big data) aprono nuove opportunità per l’IA. Si sviluppano modelli di machine learning più sofisticati.
  • 2006: Geoffrey Hinton e i suoi collaboratori rilanciano l’interesse per il “deep learning”, un sottoinsieme del machine learning basato su reti neurali profonde.

6. Gli Anni 2010: IA Ubiqua e Intelligenza Artificiale Generale

  • 2011: IBM Watson vince il quiz televisivo Jeopardy!, dimostrando avanzate capacità di elaborazione del linguaggio naturale e apprendimento.
  • 2012: Un modello di deep learning sviluppato da Google vince la competizione di riconoscimento delle immagini ImageNet, segnando un importante passo avanti per la visione artificiale.
  • 2016: AlphaGo di DeepMind, un’azienda acquisita da Google, sconfigge il campione mondiale di Go Lee Sedol, evidenziando la capacità dell’IA di gestire giochi estremamente complessi.

7. Gli Anni 2020: IA Avanzata e Sfide Etiche

  • 2020: Modelli di linguaggio come GPT-3, sviluppati da OpenAI, mostrano incredibili capacità di generazione del linguaggio naturale, aprendo nuove possibilità e sfide per l’IA.
  • Oggi: L’IA continua a progredire in vari settori, dalla medicina alla finanza, ma solleva anche questioni etiche riguardanti la privacy, l’occupazione e l’equità. Nel 2024, infatti, il Parlamento Europeo approva la legge sull’intelligenza artificiale. L’artificial intelligence act ha come obiettivo proteggere la privacy delle persone e la democrazia evitando che l’intelligenza artificiale venga usata in ambiti dubbi e pericolosi per la società pur garantendone lo sviluppo.  

Questo articolo è stato generato da ChatGPT e integrato con qualche ricerca e spunto, pochi interventi per la verità, che ho ritenuto di dover approfondire. Il modo più corretto, almeno attualmente, di usare l’intelligenza artificiale per creare contenuti è realizzare dei buoni prompt per ottenere la miglior base per il contenuto che vogliamo realizzare ed elaborarlo con gli interventi che riteniamo più opportuni. La conoscenza dell’argomento su cui stiamo lavorando e l’obiettivo per cui stiamo realizzando quel contenuto sono fondamentali per un risultato soddisfacente. Lavorare con una capacità critica è uno dei criteri più utili per utilizzare l’IA nella generazione di contenuti.

La foto invece è di Rod Long su Unsplash

Torna in alto