Capitolo 1 — Cos’è l’Intelligenza Artificiale?
Definizioni generali, coordinate storiche, tipologie principali, funzionamento di base, punti di forza e limiti, quadro istituzionale e cenni sui modelli linguistici.
1.1 Perché parlarne oggi
L’Intelligenza Artificiale è una tecnologia pervasiva. Alimenta funzioni che si usano quotidianamente — dalla ricerca di informazioni alla traduzione, dalla fotografia computazionale ai sistemi di raccomandazione — e incide su processi industriali, ricerca scientifica e comunicazione. La sua presenza non è episodica: è il risultato di un percorso lungo decenni, accelerato dalla disponibilità di dati digitali e di potenza di calcolo. Comprendere che cosa l’IA può fare, come lo fa e quali siano i suoi limiti permette di adottarla in modo consapevole, evitando ingenuità e allarmismi.
1.2 Che cos’è l’Intelligenza Artificiale (definizione generale)
Con Intelligenza Artificiale si indica l’insieme di metodi, strumenti e prassi che consentono a un sistema informatico di svolgere compiti per i quali, in genere, si richiederebbe intelligenza umana: comprendere e generare linguaggio, riconoscere pattern in immagini o suoni, prendere decisioni sotto vincoli, apprendere dall’esperienza. La definizione è volutamente ampia: descrive un campo di studio e di applicazione, non un singolo algoritmo. Due idee guidano questo capitolo: l’IA si valuta per il comportamento osservabile (che cosa fa) e per l’adeguatezza al compito e al contesto in cui opera.
1.3 Momenti chiave nella storia dell’IA
La storia dell’IA alterna slanci e ripensamenti. Alcune tappe orientano ancora oggi il modo in cui si progettano e si usano i sistemi intelligenti.
- 1936–1950: fondazioni concettuali. Nel 1936 Alan Turing formalizza la nozione di macchina universale, ponendo le basi della computazione moderna. Nel 1950, con il saggio Computing Machinery and Intelligence, propone un criterio pragmatico per valutare il comportamento intelligente delle macchine, divenuto noto come “test di Turing”.
- 1943–1957: neuro-analogia e primi modelli di apprendimento. McCulloch e Pitts (1943) introducono un modello di neurone artificiale. Nel 1956 il convegno di Dartmouth consacra l’IA come disciplina. Nel 1957 nasce il percettrone, capace di apprendere semplici classificazioni da esempi.
- Anni ’60–’80: sistemi esperti e inverni dell’IA. L’entusiasmo iniziale si confronta con limiti teorici e pratici, dando luogo a fasi di rallentamento (“inverni”). Parallelamente emergono i sistemi esperti, basati su regole e basi di conoscenza, efficaci in domini ristretti e ben formalizzati (per esempio, diagnosi supportate da regole).
- 1997: l’IA sconfigge il campione del mondo di scacchi. Deep Blue di IBM batte Garry Kasparov, dimostrando che in compiti strutturati e chiusi le macchine possono superare prestazioni umane d’élite.
- Anni 2000: dati e calcolo. La crescita del web, la diffusione di sensori e dispositivi mobili e l’abbattimento dei costi di calcolo favoriscono l’apprendimento su larga scala.
- 2012–2017: reti profonde e nuove architetture. Dal 2012 reti neurali “profonde” ottengono risultati di riferimento in visione artificiale. Nel 2017 si afferma un’architettura particolarmente adatta alla modellazione di sequenze (come il testo), che inaugura un nuovo corso per i modelli del linguaggio.
- 2018–oggi: IA generativa e adozione diffusa. Assistenti vocali e testuali, traduttori, strumenti di sintesi e generazione di contenuti entrano nella quotidianità. I modelli generativi ampliano gli orizzonti applicativi, con benefici e nuove responsabilità.
1.4 Tipi principali di IA
L’espressione “tipi di IA” non indica categorie rigide quanto piuttosto famiglie di approcci che rispondono a esigenze diverse. Le seguenti descrizioni offrono un quadro orientativo.
- Reactive Machines. Sono sistemi che reagiscono agli stimoli senza fare affidamento su memoria di lungo periodo. Valutano lo stato corrente del problema e producono un’azione sulla base di regole o valutazioni predefinite. Eccellono in compiti ben specificati e ripetitivi, nei quali è possibile calcolare rapidamente mosse o scelte sulla base della situazione presente.
- Expert Systems. Fanno leva su una base di conoscenza e su un motore inferenziale che applica regole per trarre conclusioni. Sono efficaci quando la conoscenza del dominio può essere espressa in modo esplicito e verificabile (per esempio, alberi decisionali o regole di produzione). Offrono tracciabilità del ragionamento, ma faticano ad adattarsi quando le regole diventano troppo numerose o instabili.
- Machine Learning (ML). Rappresenta il passaggio dalla programmazione di regole all’apprendimento da dati. Invece di codificare manualmente tutte le casistiche, si forniscono esempi da cui il sistema ricava schemi utili per classificare, prevedere o raggruppare. L’efficacia dipende dalla qualità e dalla rappresentatività dei dati.
- Deep Learning (DL). È un sottoinsieme del ML che utilizza reti neurali con molti strati per apprendere rappresentazioni gerarchiche dei dati. Si dimostra particolarmente adatto a informazioni non strutturate — immagini, audio, testo — nelle quali è vantaggioso estrarre automaticamente caratteristiche di alto livello.
- Generative AI. Comprende modelli in grado di produrre nuovi contenuti coerenti con i dati di riferimento: testi, immagini, musica, audio, video. L’uscita non è una semplice etichetta o un numero, ma un contenuto strutturato che può fungere da bozza, prototipo o variazione.
1.5 Machine Learning e Deep Learning
Le denominazioni “Machine Learning” e “Deep Learning” sono spesso usate insieme, ma indicano livelli diversi di astrazione e di tecniche.
1.5.1 Machine Learning
Nel ML l’attenzione è posta sulla costruzione di modelli che apprendono dai dati. Una parte rilevante del lavoro riguarda la preparazione e la rappresentazione dell’informazione: talvolta è necessario trasformare i dati grezzi in caratteristiche descrittive (feature) che rendano il problema trattabile.
Le modalità di apprendimento più diffuse sono tre. Nell’apprendimento supervisionato il sistema studia esempi corredati dalla risposta corretta e impara a mappare ingressi in uscite: è il caso tipico della classificazione (spam/non spam) o della regressione (prevedere un valore numerico). Nell’apprendimento non supervisionato non si forniscono etichette: si cercano regolarità, raggruppamenti o riduzioni di dimensionalità utili a esplorare la struttura dei dati. Nell’apprendimento per rinforzo il sistema interagisce con un ambiente e riceve feedback sotto forma di ricompense o penalità, adattando la propria strategia per massimizzare il risultato nel tempo.
Il ML tradizionale rende al meglio con dati strutturati (tabelle, misure) e beneficia del lavoro di feature engineering. Può incontrare difficoltà di fronte a segnali complessi come immagini e suoni, dove la struttura rilevante non è immediatamente evidente e la rappresentazione manuale diventa onerosa.
1.5.2 Deep Learning
Il DL affronta il problema della rappresentazione in modo automatico. Le reti neurali profonde apprendono più livelli di astrazione: i primi strati catturano pattern elementari, i successivi combinano tali pattern in strutture più complesse. Questo meccanismo ha reso possibili avanzamenti significativi nella visione artificiale, nel riconoscimento vocale e nel trattamento del linguaggio.
L’efficacia del DL è legata alla disponibilità di grandi quantità di dati e di potenza di calcolo. Tra i limiti più discussi rientrano la spiegabilità (è spesso difficile ricostruire perché un modello profondo abbia preso una certa decisione) e la sensibilità al contesto di addestramento, che può richiedere aggiornamenti periodici o tecniche di regolarizzazione e controllo.
1.6 Applicazioni dell’IA
Le applicazioni sono numerose e si estendono a domini molto diversi tra loro. Alcune aree sono divenute emblematiche.
- Computer Vision. La capacità di interpretare immagini e video ha consentito di sviluppare sistemi di riconoscimento di oggetti e volti, strumenti di supporto alla diagnosi medica basati su immagini e componenti per la guida assistita e autonoma. Le medesime tecniche permettono anche il controllo qualità in ambito industriale e la lettura automatica di documenti.
- Natural Language Processing (NLP). La comprensione e la generazione di testo alimentano traduzioni automatiche, riassunti, motori di ricerca, classificazione di documenti, filtri antispam e assistenti vocali. L’attenzione non è limitata alla correttezza grammaticale: conta la coerenza con il contesto d’uso e la capacità di riformulare contenuti per destinatari diversi.
- Robotics. L’integrazione di percezione, controllo e pianificazione consente a robot industriali, droni e macchine autonome di svolgere compiti in ambienti variabili, con livelli diversi di collaborazione con l’essere umano.
- Generative AI. La produzione di testi, immagini, musica e video apre scenari di prototipazione rapida di idee, supporto alla scrittura e alla creatività, generazione di materiale didattico e accessibilità dei contenuti. A fronte di questi vantaggi emergono domande sulla verifica dei risultati, sulla proprietà intellettuale e sulla responsabilità dell’uso.
1.7 Come funziona (in generale) un sistema di IA
Benché esistano molte famiglie di metodi, gran parte dei sistemi moderni segue una sequenza concettuale ricorrente.
- Definizione del problema e dei dati. Ogni progetto inizia dalla chiarificazione del compito: che cosa si vuole ottenere e con quali vincoli? A partire da qui, si individuano i dati pertinenti (testi, immagini, tabelle, registrazioni) e se ne valuta qualità e rappresentatività.
- Preparazione. I dati vengono puliti, anonimizzati quando necessario, bilanciati e resi omogenei. Nei casi in cui sia utile, si costruiscono caratteristiche (feature) che descrivono aspetti informativi del problema.
- Addestramento (training). Il sistema apprende schemi dai dati disponibili. Le modalità di apprendimento possono essere supervisionate, non supervisionate o per rinforzo.
- Valutazione. Le prestazioni si misurano su dati non visti in precedenza, per verificare la capacità di generalizzare. Si monitora il rischio di overfitting e di underfitting.
- Inferenza e monitoraggio. Una volta messo in esercizio, il sistema elabora nuovi dati producendo previsioni, decisioni o contenuti. Poiché i contesti cambiano, il monitoraggio continuo aiuta a mantenere affidabilità e sicurezza nel tempo.
1.8 Punti di forza e limiti
I sistemi di IA esprimono al meglio il proprio valore quando esistono dati affidabili, obiettivi chiari e vincoli di decisione ben definiti. In questi scenari offrono scalabilità e individuano pattern non ovvi, talvolta controintuitivi. Inoltre, molte tecnologie attuali gestiscono forme di informazione differenti — testo, immagini, audio — avvicinando casi d’uso un tempo lontani.
Accanto a questi vantaggi, occorre considerare alcune limitazioni. La qualità dei risultati dipende dalla qualità dei dati e dalla pertinenza rispetto al contesto d’uso. Molti modelli operano come “scatole nere”, per cui è difficile ricostruire esattamente la catena causale che ha portato a una decisione; la spiegabilità diventa quindi un requisito progettuale. Nei sistemi generativi può presentarsi il fenomeno delle allucinazioni, ovvero la produzione di contenuti plausibili ma inesatti, che impone controlli e verifiche. Infine, addestramento e uso su larga scala hanno costi (economici ed energetici) e sollevano temi di privacy e proprietà intellettuale.
1.9 Miti, fraintendimenti e realtà
Una preoccupazione ricorrente riguarda la possibile sostituzione integrale di professioni complesse. Parleremo di questo argomento in modo più esteso più avanti, ma per ora possiamo affermare che l’IA tende a ridefinire i compiti: automatizza attività ripetitive o altamente standardizzate e, al tempo stesso, mette in risalto il valore della progettazione, della valutazione critica e della responsabilità umana. Un’altra semplificazione frequente assimila i sistemi moderni a “correttori avanzati di testo”: in realtà le tecnologie attuali operano su problemi articolati di comprensione, trasformazione e pianificazione, pur restando fallibili. Infine, “usare l’IA” non coincide con un comportamento scorretto: il discrimine è dato dalle regole d’uso, dalla trasparenza e dalla capacità di argomentare e verificare i risultati.
1.10 Cenni sui modelli linguistici di grandi dimensioni (LLM)
I modelli linguistici di grandi dimensioni sono sistemi addestrati su ampie collezioni di testi per prevedere la parola successiva in una sequenza. Da questa semplice idea discendono capacità di generare paragrafi coerenti, riassumere, tradurre, spiegare concetti o proporre bozze di codice. Alcuni termini ricorrenti:
- Prompt: il prompt è la richiesta o la domanda che viene fornita al modello per generare una risposta specifica.
- Training: il training è il processo attraverso il quale il modello apprende dai dati per migliorare la sua capacità di generare output accurati.
- Allucinazioni: le allucinazioni sono le informazioni generate dal modello che sembrano corrette ma in realtà sono false o non basate sui dati.
- Finestra di contesto o context window: la finestra di contesto è la porzione di testo che il modello tiene in considerazione per generare una risposta, influenzando la rilevanza e la coerenza dell’output.
- Temperatura: la temperatura è un parametro che determina quanto l’output del modello sia prevedibile o creativo, influenzando la diversità delle risposte generate.
1.13 Glossario essenziale
- Intelligenza Artificiale (IA): metodi e strumenti che permettono a un sistema informatico di eseguire compiti tipicamente associati all’intelligenza umana.
- Dati: informazioni (testo, immagini, audio, tabelle) utilizzate per addestrare o alimentare un sistema.
- Apprendimento: processo attraverso cui un sistema individua schemi utili nei dati per svolgere un compito.
- Training: fase di addestramento del sistema su esempi selezionati.
- Inferenza: utilizzo del sistema addestrato su nuovi dati per produrre previsioni, decisioni o contenuti.
- Overfitting / Underfitting: eccessiva aderenza agli esempi di addestramento / capacità insufficiente a rappresentare il problema.
- Bias: distorsioni nei dati o nei modelli che portano a risultati sistematicamente sbilanciati.
- Spiegabilità: grado in cui il funzionamento interno o le motivazioni di una decisione del sistema possono essere comprese e comunicate.
- LLM: modelli capaci di generare e comprendere testo su larga scala; saranno trattati in dettaglio in seguito.
1.14 Bibliografia essenziale e risorse
- Ministero dell’Istruzione e del Merito (MIM), Linee Guida sull'IA nelle istituzioni scolastiche (2025). Principi di trasparenza, comprensibilità e uso responsabile.
- Ray Kurzweil, How to Create a Mind. Testo divulgativo sul funzionamento delle architetture ispirate al cervello e sulle implicazioni per l’IA.
Risorse introduttive e multimediali