expand_lessAPRI WIDGET

Perché l’intelligenza umana batte ancora gli algoritmi (2023) – Recensione

"Perché l’intelligenza umana batte ancora gli algoritmi" è rivolto al grande pubblico, fornendo un’utile panoramica a chi vuole approcciare queste tematiche

Di Alberto Vito

Pubblicato il 20 Apr. 2023

L’argomento del volume “Perché l’intelligenza umana batte ancora gli algoritmi” è di grandissima attualità. Ce ne accorgiamo o meno, aspetti sempre più rilevanti della nostra vita sono controllati da computer, algoritmi e intelligenza artificiale.

Il tema del libro

 Sempre di più, tantissime funzioni svolte da noi saranno in un prossimo futuro gestite in nostra vece da macchine che, in linea teorica, saranno in grado di evitare gli errori umani. Ancora, macchine sempre più sofisticate sono in grado di produrre dialoghi e conversare in modo da risultare indistinguibili da un essere umano. Anche la produzione di testi può essere affidata a computer con memorie-dati prodigiose e in possesso di regole sintattiche raffinate, che possono sostituirsi a scrittori e saggisti. Ma sarà davvero così? Ed è ovvio che la vita affidata all’intelligenza artificiale (IA) che, comunque, da qualcuno sarà gestita, pone clamorosi interrogativi etici, politici ed economici. Come conservare sufficienti gradi di libertà nei confronti di algoritmi che conoscono tutto di noi? I nostri spostamenti, i nostri gusti, i nostri acquisti?

Si confrontano sul tema due posizioni estreme. Da un lato c’è chi è convinto (talvolta, perché ha interessi in gioco in tal senso) che affidarsi alle macchine e all’intelligenza artificiale porterà un sensibile miglioramento alle nostre vite, dall’altro c’è chi pensa preoccupato ai rischi di controllo e di possibile riduzione delle libertà individuali e collettive in un mondo sotto controllo orwelliano. Inoltre, tra gli apocalittici, c’è chi teme che il progresso tecnologico possa farci perdere abilità essenziali: con la calcolatrice abbiamo smesso di fare i conti a mente, con il Gps si riduce il senso dell’orientamento, con ChatGpt potremmo perdere abilità cognitive più sofisticate, fino all’estremo, con l’incapacità di produrre frasi di senso compiuto, a cui penserebbe l’intelligenza artificiale. Inoltre, l’evoluzione delle macchine pensanti, capaci di auto correggersi e di imparare dall’esperienza, comporta domande affascinanti: cosa è esattamente la coscienza e dove va situata? Cosa è un pensiero?

Il libro è un’utile raccolta di informazioni, ricco di esempi pratici che spaziano in ambiti diversi della vita quotidiana, tanto che  i diversi capitoli rischiano di essere un po’ scollegati tra loro. Gli argomenti trattati sono disparati e anche apparentemente banali. Ad esempio, il primo capitolo si occupa di verificare se gli algoritmi e l’intelligenza artificiale possono aiutarci in uno dei più complessi problemi umani, ovvero la ricerca dell’anima gemella. Si rivolge al grande pubblico, fornisce un’utile panoramica a chi vuole approcciare queste tematiche, mentre chi è più esperto di intelligenza artificiale e di tecnologie digitali probabilmente si orienterà verso testi più tecnici. L’autore afferma che lo scopo del volume è dotare le persone di una conoscenza realistica di ciò che l’intelligenza artificiale può darci e nel contempo di come possa essere utilizzata per influenzare le nostre scelte, da quelle commerciali a quelle di carattere politico. Egli prova ad assumere una posizione equilibrata, rifuggendo dal panico tecnofobico, nella consapevolezza che il progresso tecnologico è comunque inarrestabile e confidando nella capacità critica dell’essere umano.

Intelligenza umana e algoritmi

 Proprio perché gli algoritmi saranno sempre più presenti, Gigerenzer ribadisce l’importanza del discernimento umano, che deve ampliarsi per fronteggiare in modo attivo un mondo complesso e automatizzato. Affidarsi in modo acritico agli algoritmi complessi, laddove le scelte riguardano la vita delle persone, conduce a illusioni di certezza che sono una precondizione perfetta per un disastro. La tesi di fondo è che l’intelligenza artificiale, basata su una raccolta di dati sempre più imponente, può effettivamente sconfiggere l’intelligenza umana in una serie di problemi “del mondo stabile” (come ad esempio giocare a scacchi, dove effettivamente la velocità di calcolo delle possibili variabili è decisiva). L’intelligenza umana invece è abituata a gestire anche le situazioni di incertezza, laddove la soluzione giusta non è influenzata soltanto da calcoli statistici riguardanti le migliori soluzioni già adottate in passato. O, per fare un esempio, le macchine sono state in grado di predire con esattezza, anche a distanza di anni, il luogo dove una sonda spaziale sarebbe atterrata, perché si dispone di informazioni affidabili sul movimento dei pianeti, sulla velocità costante della sonda e sono noti altri dati astronomici. Al contrario, quando si tratta di predire il comportamento di un singolo essere umano, i fattori in gioco sono troppi e il risultato può essere imprevedibile. Così, la guida automatica di un’auto è oggi possibile in un ambiente stabile, ma diventa più difficile laddove le variabili (da quelle meteorologiche a quelle legate all’imprevedibilità degli altri guidatori umani) aumentano e paradossalmente risulta più facile, come già avviene oggi, far guidare in automatico un aeroplano.

Per il futuro, si ipotizza che cambieranno le nostre strade e il concetto di città per favorire l’uso di veicoli che non necessiteranno della guida umana. In pratica, i big Data si basano sempre sul passato e, quindi, sono utili a predire il futuro se esso si basa su risposte già messe in pratica, mentre, se il futuro non sarà come il passato, gli algoritmi rischiano di essere fuorvianti. Personalmente, ho trovato particolarmente interessanti le pagine dedicate alle fake-news e alle tecniche utilizzate per far apparire convincenti messaggi promozionali, talvolta persino fraudolenti.

L’autore

L’autore del libro, scienziato cognitivo nato in Baviera nel 1947, è un’autorità indiscussa nel suo campo. Ha insegnato in numerose università, tra cui l’Università di Chicago, l’Università della Virginia e attualmente dirige dal 1997 il Max Planck Institute for Human Development e dal 2009 l’Harding Center for Risk Literacy, entrambi di Berlino. Ha ricevuto tre lauree honoris-causa in università europee e numerosi premi e riconoscimenti. I suoi campi di ricerca comprendono l’uso della razionalità limitata e i procedimenti euristici con cui l’uomo giunge ad assumere decisioni in un tempo ridotto e con conoscenze parziali; le strategie per affrontare l’incertezza e i rischi in diversi ambiti; le differenza tra mente umana e sistemi di intelligenza artificiale. I suoi studi passati più noti hanno dimostrato come, identificando situazioni in cui “less is more”, l’euristica assume decisioni più accurate con meno sforzo. Ciò contraddice la visione tradizionale secondo cui più informazioni sono sempre migliori o almeno non possono mai nuocere se sono gratuite. Critico del lavoro del Premio Nobel Kahneman e Tversky, egli sostiene che l’euristica non dovrebbe portarci a concepire il pensiero umano come pieno di pregiudizi cognitivi irrazionali, ma piuttosto a concepire la razionalità come uno strumento adattivo che non è identico alle regole della logica o al calcolo delle probabilità; Gigerenzer e i suoi collaboratori hanno dimostrato teoricamente e sperimentalmente come molti errori cognitivi possano essere meglio compresi come risposte adattive a un mondo di incertezza.

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
  • Gigerenzer, Gerd (2023),  Perché l’intelligenza umana batte ancora gli algoritmi, Raffaello Cortina Editore, Milano, pp. 368
CONSIGLIATO DALLA REDAZIONE
Un insolito incontro con l’Intelligenza artificiale, non sempre infallibile
Un incontro spiazzante con l’Intelligenza artificiale

G. M. Ruggiero esprime il suo spiazzamento davanti ad un testo opera di un'intelligenza artificiale che cita un suo presunto articolo, in realtà inesistente

ARTICOLI CORRELATI
All I want for Christmas is Truth. Scoprire che Babbo Natale non esiste è traumatico?

Quando i bambini scoprono che Babbo Natale non esiste? Verso gli 8-9 anni (ma vi è un’estrema variabilità). Come avviene questa scoperta? 

Slacktivism: di cosa si tratta? Quando l’attivismo online può diventare dannoso

Sostenere cause sociali tramite l’attivismo online può fornire un aiuto prezioso, ma attenzione allo slacktivism, una forma superficiale e disinteressata di supporto

WordPress Ads
cancel