Cos’è il senso comune o buon senso?
PSICOLOGIA DIGITALE – (Nr. 62) Il senso comune dell’intelligenza artificiale
Il senso comune è un concetto ampio e dai contorni sfumati; potremmo definirlo la capacità di orientarsi in diverse situazioni, di risolvere problemi, di prendere decisioni e agire in modo ragionevole, coerente e logico in base al contesto. È ciò che per noi umani viene ritenuto comunemente qualcosa di “ovvio”. Si dice infatti che qualcuno “non ha buon senso” quando commette errori o fa scelte che la maggior parte di noi non farebbe. Il buon senso rappresenta l’insieme di conoscenze implicite, intuitive e comunemente riconosciute in un determinato ambiente. Ma come nasce questa competenza? È frutto dell’esperienza diretta: non si tratta di logica astratta o di nozioni apprese, bensì di una consapevolezza che si sviluppa nel quotidiano; è il vivere che ci permette di formare e allenare questa capacità (Davis, 2023).
L’intelligenza artificiale riesce a replicare, oltre a linguaggio e altre capacità umane, anche questa? Potrebbe essere indubbiamente utile se così fosse: per esempio, un chatbot per il servizio clienti dotato di ‘buon senso sociale’ potrebbe dedurre da segnali impliciti che un utente si sente frustrato e agire di conseguenza e in modo appropriato. Al momento, però, l’intelligenza artificiale non sembra proprio dotata di buon senso.
Cosa vuol dire davvero avere buon senso
Se così fosse, chatbot come quelli di Character AI capirebbero i sottintesi delle conversazioni, quella parte della comunicazione tanto implicita quanto insostituibile e importante. E non ci sarebbero notizie come quella di Sewell Setzer III, quattordicenne della Florida morto suicida qualche mese fa. Per Sewell il chatbot, “Dany”, era amico e confidente; nonostante abbia condiviso pensieri intimi con Dany, gli abbia parlato del suo progressivo isolarsi e di aver perso interesse per la scuola e per gli amici, il chatbot non ha colto quello che qualsiasi umano avrebbe immediatamente capito: il ragazzo aveva bisogno di supporto mentale (Roose, 2024).
Le conversazioni umane reali, quelle del nostro quotidiano, ruotano attorno alla condivisione di esperienze personali ed eventi di vita; si tratta di dialoghi pieni di riferimenti a situazioni, eventi, background culturale. Il punto è che queste conversazioni hanno molto di “implicito”, di sottinteso, cose che le intelligenze artificiali per ora non riescono a cogliere. Questa mancanza di consapevolezza contestuale deriva da una ambivalenza nelle intelligenze artificiali: da un lato, enormi set di dati di apprendimento, grandi quantità che un cervello umano non può analizzare; dall’altro, l’assenza di una visione in prospettiva, di comprensione di dettagli e contesto (Finch & Choi, 2024). Gli esseri umani, invece, sono molto abili nel gestire situazioni incerte e ambigue, nell’adattare piani o strategie quando necessario sulla base della situazione nel suo insieme. Dal punto di vista cognitivo, gli esseri umani sono flessibili: il buon senso serve proprio a orientarsi tra informazioni già note e nuove, tra certezza e incertezza.
Nella mente dell’intelligenza artificiale
La logica di apprendimento di una intelligenza artificiale di solito è del tipo “se questo, allora quello”; questo approccio consente di dedurre automaticamente risultati a partire da un insieme di regole. Durante una conversazione, un chatbot avanzato genera le risposte utilizzando i set di dati su cui è stato addestrato, riformulando le informazioni già presenti nel dialogo e non riuscendo a catturare le sfumature e le complessità più profonde (Finch & Choi, 2024). L’idea per il futuro è riuscire a integrare abilità come l’autoriflessione e l’astrazione che richiedono sia conoscenza fattuale che capacità di ragionamento. Infatti, non è sufficiente memorizzare fatti; è essenziale saper dedurre nuove informazioni per prendere decisioni in situazioni nuove o incerte e tenere conto della specifica situazione (Kejriwal et al., 2024).
Oggi, sistemi di intelligenza artificiale avanzati se la cavano molto bene con test di memorizzazione e riformulazione a partire da set di dati preesistenti; non si può dire la stessa cosa per quanto riguarda la risposta a dilemmi morali o situazioni ambigue in scenari reali. Possono fornire una serie di opzioni che appunto derivano da tutti i dati che riescono a raccogliere e sintetizzare ma non fornire risposte realmente adeguate al contesto (Davis, 2023).
A cosa serve il buonsenso nell’intelligenza artificiale
Come possiamo capire se l’intelligenza artificiale sta davvero elaborando le informazioni con un ragionamento flessibile, multi-step e basato sul buon senso, oppure se si limita a sintetizzare dati preesistenti dal suo vasto corpus di conoscenze? E resta poi tuttora irrisolta la questione dei bias presenti nei set di dati di addestramento (Kejriwal et al., 2024). Insomma, la capacità delle intelligenze artificiali di imitare comportamenti realmente umani rimane un tema che presenta molti punti aperti per il momento.
Siamo ancora nelle fasi iniziali della creazione di un’intelligenza artificiale generale, AGI (artificial general intelligence). L’intelligenza artificiale generale, a differenza delle intelligenze artificiali specializzate progettate per svolgere compiti specifici (come il riconoscimento vocale o la traduzione automatica), possiede la capacità di acquisire, apprendere e applicare conoscenze in modo simile a un essere umano, è in grado di adattarsi a nuove situazioni e imparare dall’esperienza in modo flessibile e autonomo. A cosa potrebbe servire? Beh, un esempio sono le cosiddette ‘bedside manner’, ovvero le modalità con cui un professionista sanitario interagisce con i pazienti: comunicazione, empatia, saper mettere a loro agio i pazienti durante le visite o i trattamenti. Una buona “bedside manner” è fondamentale per costruire un rapporto di fiducia; è l’attitudine, l’approccio verso un paziente; qualcosa di prettamente umano tra umani.
L’intelligenza artificiale riuscirà a replicare anche questo? Probabilmente la risposta non è se ci riuscirà, ma quando.