Intelligenza artificiale, uno strumento prezioso ma non privo di rischi

0e1611651b64828858541ba5ee30edd1.jpg

Servizio comunicazione istituzionale

9 Aprile 2024

L’intelligenza artificiale, sempre più presente e d’attualità nella quotidianità delle persone, sta facendo passi da gigante. Toccando inediti picchi di realismo, come se a interagire con gli utenti fosse un altro essere umano. Eppure, al netto dei costanti progressi, i rischi legati all’impiego dell’IA restano importanti. La Professoressa Emily Menon Bender, ricercatrice di punta nel campo della linguistica computazionale e docente all’Università di Washington, ne ha parlato approfonditamente nella lectio magistralis tenuta venerdì scorso all’USI, in qualità di ospite del programma dottorale Doctoral Programme in Applied Linguistics: Managing Languages, Arguments and Narratives in the Datafied Society (LAND), in collaborazione con l’Istituto di argomentazione, linguistica e semiotica (IALS) dell’USI, il Dipartimento di Linguistica Applicata della Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) e la Zürcher Hochschule für Angewandte Wissenschaften (ZHAW), finanziata da swissuniversities.

La linguista statunitense, figura di spicco nel campo dell’IA, ha esposto la sua visione sul tema. Spiegando innanzitutto perché si tende ad assumere la capacità di sense-making nelle interazioni con gli interlocutori artificiali. “Quando interagiamo con delle chatbot, come ad esempio ChatGPT, esse ci restituiscono delle parole che per noi hanno un senso, che comprendiamo” ha sottolineato la professoressa Bender. “Solitamente ciò avviene quando entriamo in contatto con un’altra persona, per questo tendiamo a immaginare una mente dietro a questi strumenti, che però non c’è. Il linguaggio in realtà viene da un luogo inesistente e siamo noi a dargli un significato”.

L’idea che l’intelligenza artificiale sia in grado di fare qualunque cosa, rileva Emily M. Bender, rappresenta insomma un falso mito. E questo a prescindere da quanto la si “alleni” in merito a un determinato argomento. “Abbiamo macchine che parlano di medicina, di legge e di sport, ma che in realtà non sono né dottori né avvocati – prosegue la ricercatrice nordamericana -. Ci stanno fornendo solo il linguaggio perché ne padroneggiano la forma (sintassi, pronuncia e spelling), ma non hanno accesso al significato, alla semantica. È quindi meglio pensare che siano degli strumenti, a cui chiediamo un supporto in caso di necessità”. Strumenti che peraltro, sottolinea la professoressa, non sono affatto privi di rischi. “Vi riporto un caso concreto: negli Stati Uniti la National Eating Disorders Association ha sostituito il personale della sua hotline con una chatbot, che però a un certo punto ha iniziato a dispensare consigli errati, suggerendo ad esempio a chi aveva già dei disturbi alimentari di mettersi a dieta. Questo episodio, che si è concluso con la sospensione del servizio, ben denota i limiti delle interazioni artificiali. Il problema è che per simili errori l’IA non viene ritenuta responsabile”.

Le conseguenze della sempre più radicata presenza dell’intelligenza artificiale, ha spiegato l’ospite dell’USI, superano i confini di schermi e altoparlanti. E, di fronte a una crescente richiesta, si stanno velocemente trasformando in un rischio anche per l’ambiente. “Il suo impatto ambientale è effettivamente un grosso problema. L’intelligenza artificiale si sta allenando con svariati modelli linguistici differenti, e questo implica numerosi computer e altrettanta energia. Senza dimenticare l’acqua per raffreddare i data center e i materiali necessari per costruire i chip. Tutto questo è nascosto al consumatore, ma sta avendo un enorme impatto sull’ecosistema. E il processo è in costante crescita”. Il futuro dell’IA, va da sé, è dunque avvolto da più di un’incognita. La visione di Emily M. Bender, al proposito, è tuttavia chiara: “Vedo due possibili scenari futuri, uno positivo e l’altro negativo. Nel primo caso l’intelligenza artificiale si declinerà in un’applicazione specifica e ben progettata. Mi riferisco a traduzioni, trascrizioni, correzioni automatiche e via dicendo. Nel secondo, invece, l’AI si declinerà in test falsi e test sintetici ovunque, con persone intente a fingere che determinate risposte possano essere istruzione, psicoterapia, un buon contratto legale, etc. È evidente che il secondo scenario, qualora dovesse vedere la luce, causerebbe degli enormi problemi”.

 

Di seguito potete trovare i link delle interviste e degli approfondimenti apparsi sui media:

https://www.teleticino.ch/ticinonews/ticinonews-sera-ore-1830-050424-6004

https://www.rsi.ch/rete-uno/programmi/informazione/seidisera/SEIDISERA--2091610.html

https://www.rsi.ch/play/embed?urn=urn%3Arsi%3Avideo%3A2115779&subdivisions=false

Rubriche