martedì 26 novembre 2024

Intelligenza artificiale e modelli sintattici

Nella Prefazione alla seconda edizione degli Eléments de syntaxe structurale (1965), Jean Fourquet annunciava che le idee di Lucien Tesnière avevano trovato immediato riscontro presso gruppi di ricerca impegnati a sviluppare programmi di parsing, ovvero di elaborazione delle lingue naturali (NLP) in grado di analizzare e confrontare la sintassi di lingue diverse in vista della traduzione automatica. Per tradurre, infatti, alla macchina non basta un dizionario: occorre un sistema di regole che riconosca le combinazioni di parole possibili in una certa lingua e le interpreti correttamente.

Nell'Introduzione alla traduzione in italiano del volume di Tesnière (2001), Germano Proverbio citava una serie di progetti di ricerca in corso in Europa che applicavano il modello della grammatica della dipendenza di Tesnière all'elaborazione di programmi di traduzione automatica.

Nell'Introduzione alla loro traduzione inglese dello stesso volume (2015), i linguisti informatici Sylvain Kahane e Thimoty Osborne giustificavano la scelta di ripubblicare l'opera di Tesnière (apparsa in prima edizione nel 1959) con la volontà di rendere giustizia al padre della grammatica della dipendenza e al ruolo fondativo che le sue teorie hanno avuto per lo sviluppo di tante applicazioni diventate, per noi, di uso quotidiano: dai correttori automatici ai traduttori automatici ai sistemi di supporto alla scrittura.

E oggi, che la scrittura si serve di programmi di intelligenza artificiale (IA) che simulano la conversazione con umani (CHATBOT) e generano in modo rapidissimo testi corretti e perfezionabili nelle diverse lingue? Qual è il modello linguistico (computazionale) alla base di queste prodigiose elaborazioni che simulano con tanta perizia il comportamento umano?

Sappiamo che l'efficienza dei programmi di IA si basa sui cosiddetti "modelli linguistici di grandi dimensioni", ovvero su algoritmi che - interrogando enormi basi di dati - elaborano artificialmente sequenze linguistiche credibili (pattern). Non si tratta di formule di riuso pescate nel grande mare dei testi immagazzinati in rete, ma di realizzazioni istantanee basate su calcoli che, partendo dall'analisi di quei testi, traducono il linguaggio in spazio (tramite vettori costruiti in base a valori che rappresentano il significato delle diverse parole - mappe semantiche - e valori che ne rappresentano le connessioni possibili - collocazioni) e poi in numeri elaborati statisticamente. Il risultato è una combinazione di parole che si susseguono una dopo l'altra in base alla probabilità che ricorrano insieme in quella lingua, in quel tipo di testo ecc. 

Insomma, la regolarità che ne risulta non è frutto dell'applicazione di regole di generazione, ma dell'esposizione a esempi di connessioni regolari che automaticamente producono (non replicano) altri esempi di connessioni altrettanto regolari. Naturalmente, a monte, ci sarà stato un processo di istruzione esplicita e di addestramento della macchina, consistente nella modifica progressiva dei risultati alla luce degli errori commessi. Ma ciò cui assistiamo nel momento in cui poniamo (o riformuliamo) la nostra domanda a un chatbot è la generazione di una risposta immediata che ci sorprende per la sua pertinenza (salvo "allucinazioni"), completezza, correttezza formale. 

Quali considerazioni possiamo trarre da questa spiegazione sommaria di un sistema così complesso, al quale con tanta facilità possiamo delegare compiti di scrittura e analisi testuale?

Per chi insegna, penso sia utile riflettere su un aspetto importante della questione (che è  oggetto di dibattito nelle teorie sintattiche degli ultimi decenni). 

Se ragioniamo nei termini di un sistema simbolico quale è il linguaggio umano, la frase è una successione di simboli organizzata in base a rapporti gerarchici che non sono visibili a livello superficiale - rapporti che modelli linguistici come quello valenziale o quello generativista ci insegnano a riconoscere e ad analizzare, applicando in modo consapevole il ragionamento inferenziale.   

Se ragioniamo nei termini di un sistema generativo come l'intelligenza artificiale (e chiariamo che qui "generativo" non ha nulla a che vedere con la grammatica generativa di Chomsky: vuol dire solo "non naturale, generato da una macchina"), la frase diventa un vettore a geometria variabile, un'entità di natura puramente associativa che sfugge alla nostra capacità di controllo e sulla quale possiamo al più fare previsioni grazie a dizionari delle collocazioni e alla pratica di una grammatica, quella delle costruzioni, di cui abbiamo parlato in questo vecchio post e di cui si parla anche in questo articolo.

Per questo motivo, nell'accapigliarsi sui modelli di riferimento per la didattica bisognerebbe pensare, più che alle occasioni perse nel passato, alle forme di conoscenza (e di rappresentazione della conoscenza) che stiamo perdendo, mentre ci affanniamo a vuotare il mare col secchiello...