La possibilità di intrattenere conversazioni più “naturali” con i robot lascia intravedere molteplici potenzialità in ambito educativo e di training con i bambini, ma anche nei contesti riabilitativi con soggetti adulti o anziani. L’interazione è al centro degli interessi di ricerca dell’UniToM dell’Università Cattolica
L’interesse a unire le capacità conversazionali di ChatGPT con le potenzialità del robot umanoide NAO si inserisce in modo coerente tra gli obiettivi di ricerca dell’Unità di Ricerca sulla Teoria della Mente (UniToM) dell’Università Cattolica del Sacro Cuore di Milano.
Interessi di ricerca
Da quasi dieci anni, il gruppo si dedica allo studio dell’interazione tra uomo e robot (human-robot interaction) e della robotica sociale (social robotics), con particolare attenzione alla prospettiva evolutiva e a quella lifespan, al fine di rendere l’interazione “human-centered” e quindi sempre più “sintonizzata” con le competenze sociali e cognitive dell’agente umano. Aspetto fondamentale è quello della Teoria della Mente (Theory of Mind, ToM), cioè la comprensione che la mente sia formata da stati mentali indipendenti dalla realtà esterna e che il comportamento delle persone dipenda da questa visione soggettiva del mondo (Bartsch & Wellman, 1995; Perner, 1991; Peterson & Wellman, 2019). Questa competenza si è rivelata particolarmente importante anche nell’interazione con i robot sociali (Marchetti et al., 2018).
Oltre alla Teoria della Mente, sono state studiate numerose altre componenti sociali che sembrerebbero caratterizzare gli scambi tra robot sociali ed esseri umani. Ad esempio, è stato riscontrato che già a pochi mesi di vita i bambini mostrano di riuscire ad anticipare azioni finalizzate compiute sia da esseri umani sia da robot sociali (Manzi et al., 2022). Dalle ricerche emerge anche che, nell’interazione con i robot, i bambini considerano questi ultimi agenti intenzionali (Peretti et al., 2023) e che nella costruzione di una nuova relazione di fiducia introducano meccanismi psicologici paragonabili a quelli riscontrati nella relazione con altri esseri umani (Di Dio et al., 2020).
ChatGPT e altre intelligenze conversazionali nei robot sociali: prospettive
A partire dai processi psicologici attivati nell’interazione con i robot sociali e dalle potenzialità che questi scambi possono avere nell’utilizzo di strumenti conversazionali, è stato ritenuto di grande interesse poter ampliare le capacità interazionali di NAO. Questi tipi di robot sono stati finora prevalentemente utilizzati con una pre-programmazione che ne definisse ogni singola azione. La possibilità di dotarli di un’intelligenza artificiale come quella fornita da ChatGPT e da altre intelligenze generativo-conversazionali consente invece di ottenere una maggiore fluidità negli scambi, rendendoli maggiormente simili alle interazioni tra esseri umani, in quanto l’impiego di ChatGPT fa sì che le risposte dell’agente robotico siano spontanee e originali. Inoltre, l’intelligenza artificiale di ChatGPT mostra di adattarsi nel corso della conversazione, contestualizzando in maniera sempre più efficace le proprie risposte all’interno dello scambio comunicativo. Tali peculiarità aprono a una serie di riflessioni sulla percezione dei robot sociali integrato con sistemi generativo-conversazionali e sul loro impiego in ambito educativo e riabilitativo, con popolazioni sia a sviluppo tipico sia atipico.
ChatGPT e ToM
ChatGPT, progettata dall’azienda OpenAI, è solo una tra le tecnologie di assistenza virtuale che sfrutta l’Intelligenza Artificiale esistenti e ha recentissimamente acquisito notorietà sia a livello internazionale che nazionale. I ricercatori si sono occupati e si stanno occupando di indagarne le caratteristiche dal punto di vista delle scienze sociali e hanno evidenziato come essa sia in grado di simulare funzioni umane dal punto di vista psicologico. Tra gli altri Kosinski (2023) e Brunet-Gouet e colleghi (2023) hanno evidenziato la capacità di ChatGPT di superare con successo i compiti classici di Teoria della Mente, come quelli relativi alle meta-rappresentazioni di primo ordine o quelli sulle situazioni socialmente ambigue. Anche Marchetti e colleghi (2023) hanno messo alla prova le capacità di ChatGPT, osservando come sia in grado di rispondere adeguatamente a richieste di assunzione del punto di vista altrui. Tuttavia, nonostante le prove vengano superate, lo strumento non mostra di comprenderle, dimostrando una intelligenza associativa ma non inferenziale.
Il seminario esperenziale
Giovedì 30 marzo 2023 presso l’Università Cattolica del Sacro Cuore di Milano si è tenuto il seminario esperienziale dal titolo “ChatGPT nei robot: Ripensare la robotica sociale”. L’evento, organizzato dall’ Unità di Ricerca sulla Teoria della Mente (UniToM) in collaborazione con il Cognitive Robtics Lab di Manchester del professor Angelo Cangelosi, ha visto, appunto, come protagonista l’integrazione tra l’applicazione di intelligenza artificiale ChatGPT e il robot sociale NAO. Sono intervenuti i docenti dell’Università Cattolica Antonella Marchetti, professore ordinario di Psicologia dello Sviluppo e Psicologia dell’Educazione, Direttore del Dipartimento di Psicologia e responsabile dell’UniToM, Davide Massaro, professore ordinario di Psicologia dello Sviluppo e Psicologia dell’Educazione, Cinzia Di Dio, professore associato in Psicologia dello Sviluppo e Psicologia dell’Educazione, e Federico Manzi, ricercatore in Psicologia dello Sviluppo e Psicologia dell’Educazione. Da remoto era presente il professor Angelo Cangelosi, che con il team di ricerca dell’Ateneo milanese ha da anni instaurato una collaborazione molto intensa. Anche da questa è nata la spinta a dare un corpo a ChatGPT integrandola con un robot sociale antropomorfo.
Ripensare la robotica sociale
L’evento “ChatGPT nei robot: Ripensare la robotica sociale” rappresenta, come si evince anche dal titolo, un punto di partenza per l’esplorazione di nuove frontiere in termini sia di capacità interazionali dei robot sociali sia dell’impatto che questi robot sociali evoluti possono avere nella interazione con le persone. I robot sociali trovano infatti applicazione, come mostrato dagli studi dell’UniToM, nell’intero ciclo di vita, a partire dagli infanti fino all’anziano. La possibilità di intrattenere conversazioni più “naturali” con i robot lascia intravedere molteplici potenzialità. Si pensi all’incremento della qualità delle interazioni in ambito educativo e di training con i bambini, ma anche ai vantaggi nei contesti riabilitativi con soggetti adulti o anziani. Le riflessioni sulle opportunità messe a disposizione dalla integrazione di un sistema generativo-conversazionale in un robot sociale si sono soffermate su ChatGPT, ma il futuro vedrà senz’altro l’avvento di nuove intelligenze conversazionali, probabilmente più potenti è performanti rispetto all’attuale (si pensi alla già annunciata Bard di Google).
Il seminario del 30 marzo è stato anche l’occasione per ribadire quanto sia importante mantenere alta l’attenzione rispetto alla tutela dei diritti della persona, che deve restare elemento centrale di tutte le attività di ricerca. Ogni ricerca è infatti accompagnata da una riflessione rispetto agli aspetti etici dell’utilizzo delle innovazioni tecnologiche e dei robot sociali in particolare, soprattutto (ma non solo) quando i destinatari sono minori. Tali attenzioni si ritrovano anche nel recente provvedimento in cui il Garante della privacy, ha disposto la limitazione della piattaforma ChatGPT riportando come motivazione l’inadeguatezza della gestione dei dati personali degli utenti e dei filtri di verifica dell’età degli stessi.
Antonella Marchetti, Federico Manzi, Cinzia Di Dio, Letizia Aquilino, Davide Massaro
Facoltà di Scienze della Formazione; Unità di Ricerca sulla Teoria della Mente (UniToM), Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano
Bibliografia
Bartsch, K., & Wellman, H.M. (1995). Children talk about the mind. Oxford University Press.
Brunet-Gouet, E., Vidal, N., & Roux, P. (2023). Do conversational agents have a theory of mind? A single case study of ChatGPT with the Hinting, False Beliefs and False Photographs, and Strange Stories paradigms. Zenodo.
Di Dio, C., Manzi, F., Peretti, G., Cangelosi, A., Harris, P. L., Massaro, D., Marchetti, A., (2020). Shall I trust you? From child-robot interaction to trusting relationships. Frontiers In Psychology, (11): N/A-N/A. [doi:10.3389/fpsyg.2020.00469] [http://hdl.handle.net/10807/147674]
Garante per la protezione dei dati personali. Provvedimento del 30 marzo 2023 [9870832].
Kosinski, M. (2023). Theory of mind may have spontaneously emerged in large language models. arXiv preprint arXiv:2302.02083.
Marchetti, A., Manzi, F., Itakura, S., & Massaro, D., (2018). Theory of mind and humanoid robots from a lifespan perspective. Zeitschrift für Psychologie, 226 (2), 98-109. [doi:10.1027/2151-2604/a000326]
Manzi, F., Ishikawa, M., Di Dio, C. et al. Infants’ Prediction of Humanoid Robot’s Goal-Directed Action. Int J of Soc Robotics (2022).
Peretti, G., Manzi, F., Di Dio, C., Cangelosi, A., Harris, P. L., Massaro, D., Marchetti, A., (2023). Can a robot lie? Young children’s understanding of intentionality beneath false statements. Infant And Child Development, (e2398): 1-25. [doi:10.1002/icd.2398]
Perner, J. (1991). Understanding the representational mind. The MIT Press.
Peterson, C.C., & Wellman, H.M. (2019). Longitudinal theory of mind (ToM) development from preschool to adolescence with and without ToM delay. Child Development, 90(6), 1917–1934. https://doi.org/10.1111/cdev.13064