Nasce il primo “virtual human” made in Italy capace di produrre e comprendere la Lingua dei Segni Italiana grazie all’intelligenza artificiale
“Il linguaggio, prima di significare qualcosa, significa per qualcuno”: le parole dello psicanalista e filosofo francese Jacques Lacan mettono in risalto l’importanza di un concetto che, nella maggior parte dei casi, viene riconosciuto come un insieme di parole. In questo caso specifico, però, non sono le parole a fare la differenza, bensì i segni perché l’attenzione è totalmente focalizzata sulla LIS, ovvero la Lingua dei Segni Italiana. Quest’ultima, dopo essere stata riconosciuta ufficialmente dallo Stato il 19 maggio 2021, può aggiornare la propria storia con una nuova data. Si tratta del 17 gennaio 2023, giorno in cui la stessa LIS abbraccia ufficialmente la contemporanea rivoluzione tecnologica grazie al lancio del primo virtual human in Italia capace di produrre e comprendere i segni della lingua che, al giorno d’oggi, è conosciuta da circa 100mila persone su scala nazionale. Com’è possibile? Grazie all’intelligenza artificiale che rende l’innovazione estremamente empatica. Dietro alla realizzazione di questo assistente virtuale avveniristico c’è QuestIT, company nata come spin-off dell’Università di Siena, che per l’occasione ha stretto una partnership strategica proprio con il Santa Chiara Fab Lab dell’Ateneo toscanoecon il Consiglio Nazionale delle Ricerche.
“Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta – afferma Ernesto Di Iorio, CEO di QuestIT – Per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un avatar di ultima generazione che conosce alla perfezione la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la «digital accessibility» e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche, ma i potenziali campi d’applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.
Attualmente il virtual assistant può essere inserito all’interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi. Una volta che la persona in questione si presenta dinanzi allo schermo e inizia ad interagire a suon di segni, l’invenzione analizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la LIS. In questo modo è in grado di offrire consulenze mirate ed efficaci, a seconda del contesto di riferimento, ai clienti sordi. Ma non finisce qui, infatti, sono previste a stretto giro una serie di lavorazioni utili a perfezionare lo stesso umanoide. “Stiamo già lavorando su quello che può essere l’evoluzione della tecnologia – aggiunge Di Iorio – L’obiettivo è quello di offrire un avatar capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia e offrire così l’assistenza di cui le persone necessitano. Per l’organizzazione di questo progetto così ambizioso non potevamo che coinvolgere il Dipartimento di Scienze Sociali, Politiche e Cognitive dell’Università di Siena oltre all’Istituto di Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche e al Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana”.
Una volta ultimate le presentazioni, QuestIT, in compagnia di IgoodI, avatar factory italiana, ha premiato anche il vincitore dell’Avacontest, anzi la vincitrice, ovvero Sarah Balestrieri. La giovane, insieme ad altri cittadini provenienti da tutta Italia, ha preso parte all’iniziativa che ha visto i singoli partecipanti tramutarsi in avatar e, oltre a vincere 2.500 euro, diventerà anche testimonial di imprese ed enti pubblici del territorio sotto forma di assistente virtuale.