expand_lessAPRI WIDGET

I sistemi multiagente nell’intelligenza artificiale e una loro interpretazione in chiave di teoria dei giochi

L’ambito dei sistemi multiagente è sempre più collegato a quello dell’intelligenza artificiale (IA), come affrontare situazioni in cui operano diverse IA?

Di Mariateresa Fiocca

Pubblicato il 14 Mag. 2020

Il sistema multiagente è un ambiente operativo in cui interagiscono due o più agenti razionali; è anche detto sistema con agenti multipli.

 

L’ambito dei sistemi multiagente è sempre più collegato all’ambito applicativo dell’intelligenza artificiale (IA). Diventa di conseguenza rilevante la questione di come affrontare e governare situazioni in cui diversi sistemi di intelligenza artificiale si trovano a operare nello stesso ambiente. Si citano tre esempi: a) il trading autonomo, vari sistemi computazionali indipendenti – generalmente operanti per conto di organizzazioni diverse – decidono autonomamente il volume da acquistare o vendere all’interno di un certo mercato; b) le automobili autonome che, per conto di utenti diversi, percorrono le stesse strade per raggiungere le proprie destinazioni secondo un criterio sicuro ed efficiente; c) i robot autonomi utilizzati nella logistica per la movimentazione di merci che operano all’interno di un magazzino, con l’obiettivo di aumentare la produttività dell’impresa che se ne avvale (Amigoni, 2020).

Sorge così l’interrogativo su come possa un insieme di agenti IA autonomi operare simultaneamente in uno stesso contesto (fisico o virtuale). Possono sorgere interazioni affatto spiacevoli: ad esempio, nel caso di automobili autonome simultaneamente in circolazione in una città, ciascuna di esse cercherà di occupare lo spazio comune; arrivare a destinazioni percorrendo le medesime strade secondo un criterio di sicurezza ed efficienza; ecc.

Per semplificare l’analisi, ipotizziamo che il sistema multiagente sia costituito da due soli soggetti IA autonomi, che indichiamo rispettivamente come A e B.

Circa la natura delle interazioni fra i due agenti IA, consideriamo tipicamente due strategie: “Non Cooperare” e “Cooperare”. Se la strategia è quella di non cooperare, come nell’esempio precedente, si genera un risultato inefficiente: ingorghi (costi transazionali in termini di tempo perso), incidenti, sovraffollamento negli spazi comuni, ecc.

In una mappa a due dimensioni, ipotizziamo che si muovano due agenti robot che perseguono lo stesso obiettivo. Ipotizziamo che i due agenti autonomi siano razionali, secondo la teoria economica neoclassica, cioè perseguano il fine di ottimizzare la propria funzione obiettivo (massimizzazione dell’utilità, massimizzazione dei profitti, minimizzazione dei costi, e così via).

I fattori di contesto, alcuni dei quali istituzionali e/o stabiliti dal legislatore/regolatore sono determinanti. Tipicamente, c’è un vincolo di privacy (GDPR, Regolamento (UE) 2016/679): ciò fa sì che i due agenti autonomi IA non possano rivelare i propri dati, cioè non possano comunicare. Ne consegue che essi non possano accordarsi su una strategia congiunta da seguire che porterebbe al risultato ottimale (cioè la migliore per entrambi, che ha la caratteristica di essere Pareto-efficiente).

Attraverso una cross-fartilization fra discipline, ci troviamo in una classica situazione di “dilemma del prigioniero”, nell’ambito della Teoria dei Giochi. Seguendo la metodologia, i due agenti razionali e autonomi della IA vengono chiamati giocatore A e B, e i risultati ottenuti da ciascuno – indicati con un valore numerico, generalmente un valore monetario o un livello di utilità (nella Teoria dell’utilità cardinale) – sono denominati payoff. Il tipo di interazione fra loro genera uno specifico payoff.

Ipotizziamo inoltre che i due giocatori facciano le proprie mosse – cioè, interagiscano – simultaneamente (“one-shot game”) e non possano comunicare fra loro.

Nel “dilemma del prigioniero”, la storia con i relativi payoff proposti dalla polizia, è nota. La polizia non ha sufficienti prove per condannare i due soggetti di un certo reato che hanno commesso, e quindi – chiudendoli in due celle separate in modo che essi non possano comunicare – propone loro le seguenti strategie alternative (dove i payoff sono gli anni di prigione):

  • se solo uno dei due Non Confessa accusando l’altro, chi Non Confessa evita la pena (il suo payoff è quindi 0); mentre all’altro è inflitta una condanna a 6 anni di reclusione;
  • se Non Confessano, entrambi vengono condannati solo a 1 anno, perché colpevoli di porto abusivo di armi;
  • se Confessano, entrambi saranno condannati a 5 anni di reclusione.

Le due strategie sono quindi: C = Confessare, che è la strategia non cooperativa nei confronti del complice; NC = Non Confessare, che è la strategia cooperativa fra i due reclusi.

Il gioco viene rappresentato in forma normale o strategica tramite una matrice (2×2) il cui numero di righe e di colonne è dato dal numero di strategie disponibili al giocatore. In ciascuna cella, il primo payoff fa riferimento al giocatore A, il secondo a B.

Sistemi multiagente nell intelligenza artificiale e loro interpretazione Fig 1

Per ognuno dei due lo scopo è minimizzare la propria condanna, cioè la strategia ottimizzante. Di conseguenza, la strategia razionale di questo gioco per entrambi è Confessare (C, C) perché ciascun prigioniero non sa quale strategia sceglierà il complice. Essi saranno condannati a 5 anni di reclusione.

La Teoria dei Giochi predice che c’è un solo equilibrio. Quello in cui i due complici Non Cooperano fra loro, e quindi confessano (C, C). Poiché la coppia di payoff che scaturisce dalla loro interazione è di conseguenza (5, 5), la soluzione è inefficiente, benché razionale dal punto di vista di ciascuno.

Infatti, entrambi sarebbero stati meglio se avessero adottato una strategia cooperativa, Non Confessando (NC, NC): avrebbero avuto solo 1 anno di reclusione per porto d’armi.

Dal punto di vista della progettazione e realizzazione dei sistemi di IA, la soluzione più semplice – ma anche la più inefficiente – sarebbe lasciare le interazioni fra i questi sistemi non coordinate e non governate, con ovvie conseguenze sulla affidabilità e sulle prestazioni (Amigoni, 2020). Vale a dire, adottare una strategia non cooperativa.

Forme di coordinamento che portino alla cooperazione fra sistemi di IA operanti in uno stesso ambiente appaiono quindi necessarie (Amigoni, 2020).

Per arrivare a ciò, vengono introdotti elementi aggiuntivi, che nei sistemi multiagente di IA sono chiamati multiagent path planning oppure multiagent path finding.

Tra i numerosi approcci proposti per affrontare il multiagent path finding, di seguito viene utilizzato un meccanismo esogeno, quale l’introduzione di “convenzioni sociali”, vale a dire “regole” di coordinamento.

Nel caso delle automobili autonome, il problema è quindi quello di pianificare i percorsi per tutti gli agenti in modo tale che, quando le automobili autonome seguono tali percorsi, tutti raggiungano le loro destinazioni partendo dalle rispettive posizioni iniziali, senza che ci siano collisioni e che una determinata funzione obiettivo sia ottimizzata, come per esempio utilizzare il tragitto più breve (Amigoni, 2020).

Anche questa volta, l’introduzione e il risultato di regole di comportamento possono avvalersi della Teoria dei Giochi come metodologia di analisi. Il gioco viene di nuovo rappresentato in forma normale o strategica tramite una matrice (2×2).

Secondo le regole, cioè il Codice della strada, il giocatore che viene da destra (D) ha la precedenza: nel nostro esempio, il giocatore B.

Le strategie a disposizione di ciascun giocatore sono: F = Fermarsi; P = Passare.

La convenzione, se le regole della strada sono rispettate da ciascun giocatore/automobilista, è che ha la precedenza l’agente che viene da destra. Il relativo payoff è di conseguenza (-2, 0).

Sistemi multiagente nell intelligenza artificiale e loro interpretazione Fig 2

E’ interessante notare che il meccanismo di coordinamento utilizzato nella Teoria dei Giochi spiega il rationale (in ambito filosofico, economico ed evoluzionista) della nascita delle istituzioni sociali e, oggi – con la pervasività nel nostro quotidiano dell’intelligenza artificiale – anche una delle soluzioni del multiagent path planning nell’ambito sempre più diffuso dei sistemi multiagente nel campo della IA.

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
  • Amigoni, F. (2020). I sistemi multiagente, così governiamo l’intelligenza artificiale, Agenda Digitale, 14 febbraio 2020. Disponibile qui.
CONSIGLIATO DALLA REDAZIONE
Intelligenza artificiale necessita di stilare regole e unetica per governarla
Intelligenza artificiale buona e intelligenza artificiale psicopatica: istruzioni per l’uso

L'Intelligenza Artificiale (IA) sembra assumere due polarità, una buona e una opposta, definita Intelligenza Artificiale psicopatica.

ARTICOLI CORRELATI
WordPress Ads
cancel