expand_lessAPRI WIDGET

Machine learning: realtà o fantascienza?

Machine learning: le macchine che apprendono e decidono come noi sono fantascienza o ci stiamo avvicinando alla loro realizzazione?

Di Enrica Gaetano

Pubblicato il 26 Feb. 2019

Le recenti evidenze provenienti dalle neuroscienze cognitive riguardo i processi decisionali stanno incrementando le conoscenze volte allo sviluppo di sistemi robotici intelligenti ispirati al cervello umano

 

Questi sistemi robotici sarebbero in grado di apprendere in un contesto dinamico reale, contraddistinto da imprevedibilità e rumore, come sottolineato dal focus di Lee e Seymour pubblicato recentemente su Science Robotics.

Lo scopo è quello di accrescere l’insight sui sistemi di controllo delle azioni dei robot a partire da modelli di apprendimento più strutturati ed efficienti sviluppando al contempo nuove teorie circa la computazione delle decisioni umane caratterizzate da continui compromessi tra velocità-efficacia della performance, cooperazione-competizione.

Potremmo sorprenderci spaventati dall’idea di poterci trovare in futuro ad interagire con macchine intelligenti e robot con caratteristiche fisiche simili alle nostre, in grado di muoversi autonomamente nell’ambiente e relazionarsi con il mondo che li circonda al pari dell’uomo.

Per fortuna o sfortuna, dipende dalla propria opinione a riguardo, quel futuro è ancora lontano: attualmente infatti non esistono sistemi di intelligenza artificiale o macchine in grado di equivalere in tutto e per tutto all’uomo in ogni sua singola caratteristica.

Tuttavia quel futuro, per quanto lontano, per certi versi è più prossimo di quanto pensiamo.

Machine learning: sistemi intelligenti che replicano le nostre capacità

Grazie ad alcune recenti evidenze in campo neuroscientifico circa il modo in cui l’essere umano o l’animale apprende, ricorda e utilizza informazioni per rispondere ed adattarsi all’ambiente circostante, si è attualmente in grado di realizzare soluzioni e sistemi “intelligenti”, definiti machine learning, che imparano dall’esperienza e che sono in grado di prendere decisioni selezionando la scelta migliore tra le diverse e più sfaccettate opzioni a disposizione (Lake, Ullman, Tenenbaum & Gershman, 2017) utilizzando come modello teorico di riferimento quello del funzionamento del cervello umano.

In particolare, un modello teorico che sta avendo molto successo nell’ambito delle neuroscienze cognitive per la comprensione dei processi di decision-making umani, di quei processi cioè che consentono ad un sistema di scegliere tra alternative a cui sono associate a loro volta diversi esiti come ad esempio selezionare la linea d’azione reputata migliore per il raggiungimento del proprio scopo o formulare un giudizio a partire da informazioni di vario genere, è quello dell’apprendimento per rinforzo (reinforcement learning; RL; Lee, Seymour, Leibo et al., 2019).

Nel modello computazionale della presa di decisioni, l’apprendimento per rinforzo afferma che la presa di decisioni altro non è che la risoluzione di dilemmi e problemi nella scelta fra diverse opzioni per tentativi ed errori.

L’integrazione tra il linguaggio matematico dei modelli computazionali e gli studi provenienti dalle neuroscienze cognitive non cerca soltanto di creare dei sistemi intelligenti “superperformanti” ma di illuminare i processi che sottostanno la percezione, il controllo dell’azione, l’apprendimento e la memoria, il linguaggio e altri processi cognitivi.

Machine learning e controllo del processo decisionale

La comprensione della mente umana è qualcosa di assai affascinante ma estremamente complesso e pertanto richiede modelli computazionali e algoritmi che possano accuratamente tradurre i meccanismi interni del sistema per poterlo riprodurre.

A tal proposito, seguendo questo modello, evidenze provenienti dallo studio di Daw, Niv & Dayan (2005) suggeriscono che il cervello umano utilizza diversi meccanismi di controllo dei processi decisionali ognuno caratterizzato da prestazioni, previsioni, carichi cognitivi, velocità ed efficienza nell’esecuzione dell’azione diversi.

I processi decisionali umani sono favoriti in particolare da due strategie di controllo, una più basata sulle contingenze ambientali, l’altra maggiormente guidata da finalità e scopi ben precisi, più costosa e impegnativa in termini di risorse cognitive.

Essa infatti consente di apprendere un modello dell’ambiente circostante e utilizzare le informazioni appena ottenute per adattarsi rapidamente ai cambiamenti nella struttura ambientale diversamente dalla prima strategia (Daw, Niv & Dayan, 2005).

Questa distinzione tra le due strategie di apprendimento suggerisce un inevitabile compromesso da parte del sistema nella selezione della strategia di apprendimento più utile per la presa di decisione e una complementarietà quando esso si trova a dover fronteggiare e rispondere a necessità diverse: la prima strategia infatti risulta più veloce e in grado di implementare azioni in automatico ma è anche meno accurata e meno precisa rispetto alla seconda in termini di accuratezza nelle previsioni sull’effetto di quell’azione (Lee, Seymour, Leibo et al., 2019).

Lee, Seymour e colleghi (2019) sottolineano che gli umani, rispetto ai sistemi artificiali, sono in grado di adattarsi rapidamente alle dinamiche ambientali quando queste si modificano improvvisamente e con frequenza, sfruttando le conoscenze a disposizione, anche se ridotte, facendo al contempo un’analisi dei costi-benefici in termini di efficienza/velocità della performance; attualmente gli algoritmi dei sistemi di machine learning hanno bisogno di una quantità di tempo e di dati maggiore.

Machine learning e meta-controllo del processo decisionale

In aggiunta a questo, il nostro sistema ha a disposizione un ulteriore “apparato” che si potrebbe definire di “metacontrollo” che può scegliere di applicare una tra le due diverse strategie di apprendimento e controllo dell’azione da utilizzare in quella specifica situazione o contesto ambientale, dando priorità di volta in volta o ad un’azione più accurata quando è possibile fare una previsione affidabile o ad un’azione più veloce e automatica quando sono poche le informazioni a disposizione a seconda anche del livello di fiducia nelle proprie stime e del grado di incertezza del contesto (Lee, Seymour, Leibo et al., 2019).

Un altro punto importante da riproporre nei sistemi artificiali riguarda l’apprendimento sociale e la presa di decisione nei contesti di interazione in cui spesso si presentano dilemmi competitivi o cooperativi.

Per l’imitazione di tali dinamiche, solitamente si utilizzano due fasi per far sì che i sistemi artificiali apprendano: nella prima vi è una fase di pianificazione nella quale l’ “agente” passa in rassegna tutte le regole del gioco dell’interazione simulando prima con se stesso le varie opzioni per le linee d’azione più o meno cooperative, nella seconda invece si trova ad implementare quelle linee decisionali apprese nella simulazione.

Infine Lee, Seymour e colleghi (2019) sottolineano che gli algoritmi che si basano su Reinforcement Learning sono ancora caratterizzati da un’eccessiva sicurezza nella stima delle loro predizioni circa la performance soprattutto in ambienti complessi e dinamici in cui non sono in grado di apprendere velocemente, caratteristica non presente negli umani che elaborano la propria performance per avere una stima di confidenza o incertezza sui possibili effetti a seguito della linea d’azione scelta: per esempio, un compito semplice o un ambiente circostante stabile potrebbe generare nell’agente che apprende una stima di maggior confidenza sulla propria linea d’azione da adottare, al contrario una maggiore incertezza potrebbe generare strategie d’azione più caute o difensive (Boureau, Sokol-Hessner & Daw, 2015).

 

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
  • Daw, N. D., Niv, Y., & Dayan, P. (2005). Uncertainty-based competition between prefrontal and dorsolateral striatal systems for behavioral control. Nature Neuroscience8(12), 1704.

CONSIGLIATO DALLA REDAZIONE
Dilemmi morali e intelligenza artificiale: l’esperimento della Moral Machine
Costruire l’etica dell’intelligenza artificiale

Nello studio della relazione tra dilemmi morali e intelligenza artificiale, l'esperimento della Moral Machine ha rivelato una variazione culturale nei principi che orientano la presa di decisioni etiche nei guidatori, sfatando il concetto di un’universalità dei principi in culture eterogenee.

ARTICOLI CORRELATI
I software di trascrizione basati sull’intelligenza artificiale nelle sedute di psicoterapia – Psicologia digitale

Esistono software basati sull’intelligenza artificiale che trasformano file audio in testo, utili per la trascrizione delle sedute di terapia

L’utilizzo del Machine Learning nell’ambito della salute mentale

Gli algoritmi di Machine Learning permeano una vasta gamma di settori nella società, e possono fornire contributi anche alla salute mentale

WordPress Ads
cancel