1954
un computer IBM tradusse con successo oltre 60 frasi dalla lingua russa a quella inglese, con un approccio basato su regole e logica, per eseguire specifiche azioni di elaborazione del linguaggio naturale
‘70
si registrò un incremento dell’interesse e della ricerca sull’IA, arrivando allo sviluppo di algoritmi più avanzati, come il backpropagation algorithm, il quale ha permesso alle reti neurali di “imparare” e migliorare le performance nel tempo.
‘80
furono introdotte le reti generative avversarie (GAN), in grado di “allenarsi a vicenda” fino a che la rete generatrice riesce a ingannare la rete discriminatrice. Questo permette il miglioramento della qualità dei dati generati e un incremento della capacità di distinguere i dati reali da quelli generati.
Parallelamente, si diffuse la tecnologia di Deep Learning, introducendo la generazione di testi, la sintesi vocale e la creazione di musica.
‘90
venne sviluppato il primo modello GPT come lo conosciamo oggi, con straordinarie capacità di generazione testi e immagini.
Oggi
vengono potenziati i modelli GPT. Oggi sono più grandi, più intelligenti, addestrati su dati migliori e più sicuri.
Il dialogo tra uomo e computer prevede numerosi task per compiere azioni come:
Riconoscimento lingua
Scomposizione della frase in singole unità
Analisi semantica
Analisi del tono
Facciamo una carrellata dei task di NLP:
SEDE LEGALE E OPERATIVA
Via L.V. Beethoven 15/C
44124 | Ferrara (FE)
Via Copernico 38
20125 | Milano (MI)