expand_lessAPRI WIDGET

L’ intelligenza artificiale può aiutare ad identificare casi di abuso infantile?

L'uso dei moderni strumenti di intelligenza artificiale nell'individuazione di casi di abuso infantile è ampiamente dibattuto. Se da un lato permetterebbero un intervento tempestivo, dall'altro le informazioni usate da questi algoritmi potrebbero esacerbare i pregiudizi verso alcune comunità o gruppi etnici.

Di Enrica Gaetano

Pubblicato il 05 Lug. 2018

È importante fare una riflessione sull’utilizzo degli algoritmi matematici e dell’ intelligenza artificiale come strumenti in grado di prevedere i comportamenti umani o come strumenti di supporto ai professionisti nella presa di decisioni soprattutto nelle valutazioni di possibili situazioni di abuso infantile.

 

Si stima che circa il 37 % dei bambini negli Stati Uniti sia sotto la lente delle agenzie nazionali che si occupano del benessere infantile e adolescenziale per il rischio di maltrattamenti o abusi di vario genere (Kim et al., 2017).

Spesso la decisione di aprire o meno un procedimento a carico della famiglia di un bambino valutato a rischio viene lasciata a sistemi elettronici di case management che utilizzano database computerizzati, al cui interno sono contenute informazioni provenienti dai servizi di salute mentale, per le dipendenze da alcol o sostanze, dati giudiziari per reati penali, informazioni sulla storia sia dei bambini che degli adulti a loro legati, che si ritengono essere cruciali per l’apertura di un’indagine (Chouldechova, Vaithianathan et al., 2018).

Molti di questi sistemi si basano su modelli di stima del rischio (Predictive Risk Modelling, PRM) ed utilizzano informazioni e dati raccolti dalle giurisdizioni locali, per predire la probabilità che si verifichi un evento negativo futuro in quella famiglia o in quel contesto sociale in cui il minore è inserito e vive.

L’idea è che si possa da una parte prevenire l’esordio di un maltrattamento o abuso infantile tenendo sotto controllo la famiglia e quindi proteggere il bambino dall’eventualità di una violenza e dall’altra far un uso più strategico delle risorse economiche ed umane a disposizione del dipartimento di assistenza sociale.

Il sistema AFST (Allegheny Family Screening Tool)

Il sistema AFST, Allegheny Family Screening Tool, utilizzato dal dipartimento dei servizi sociali di Allegheny, in Pennsylvania, dal 2015, è nato per supportare lo smistamento delle telefonate nel call-center e valutarne la portata e la priorità: ad esempio se sia necessario avviare o meno un procedimento investigativo facendo intervenire le autorità a seguito di una segnalazione telefonica.

Sulla base delle informazioni contenute nel database, AFST produce un punteggio da 1 a 20 che valuta il rischio, cioè la probabilità che dietro quella chiamata ci sia un alto o basso rischio di maltrattamento (Chouldechova, Vaithianathan et al., 2018).

Davvero l’ intelligenza artificiale può aiutare ad identificare casi di abuso infantile?

Recentemente si è molto dibattuto sull’utilizzo di questi modelli predittivi in quanto, soprattutto in questo preciso momento storico, si fa sempre più affidamento a tecnologie come l’ intelligenza artificiale o a particolari algoritmi in grado di accrescere o addirittura sostituire il giudizio o la presa di decisione da parte degli individui competenti, come gli assistenti sociali nei casi di maltrattamento minorile.

In questi particolari casi, infatti, è stato evidenziato come i sistemi basati su algoritmi possano esacerbare, anziché mitigare, alcuni bias originali di tipo discriminatorio soprattutto per alcune comunità o gruppi etnici con status economico e sociale molto basso, che potrebbero essere tenuti sotto controllo o indagine solo per il fatto di essere poco abbienti o appartenenti a minoranze (Chouldechova, Vaithianathan et al., 2018).

Siamo davvero sicuri che gli algoritmi o gli strumenti di decision-making automatici possano fungere da supporto attendibile, accurato, efficace ed equo in tutte le situazioni?

A questo proposito, la ricercatrice Vaithianathan, co-direttrice del centro per l’analisi dei dati sociali e analitici dell’università della tecnologia di Auckland, si sta occupando delle implicazioni sociali a seguito dell’utilizzo di questi sistemi, che sembrano aumentare le disparità e le discriminazioni favorendo predizioni del comportamento futuro o del rischio non equi, non proporzionali tra i gruppi umani (Chouldechova, Vaithianathan et al., 2018).

L’utilizzo di AFST ha infatti evidenziato come i bambini bianchi, che l’algoritmo ha segnalato come ad alto rischio di maltrattamenti e abuso infantile, avevano una probabilità minore di essere poi allontanati rispetto ai bambini neri con lo stesso punteggio.

Brent Mittelstadt, etico dei dati all’Oxford Internet Institute, ha affermato che l’unico modo per stabilire se un algoritmo segue determinati bias, come ad esempio se tende a favorire un’etnia a dispetto di un’altra, è chiedersi quali siano state le informazioni rilevanti che le persone hanno inserito nel database circa quelle appartenenti alle minoranze, in quanto l’algoritmo “manipola” soltanto i dati per il quale è stato creato (Mittelstadt, Wachter & Floridi, 2017).

Un esempio lampante del fatto che sono le informazioni contenute nel database che vengono poi elaborate dai sistemi computerizzati ad essere centrali, è stato fornito dal Massachussets Institute of Technology nel 2018 con un’ intelligenza artificiale “cattiva”: Norman. Norman è la prima intelligenza artificiale al mondo a manifestare tratti tipici della psicopatia, creato con l’unico scopo di dimostrare come le informazioni inserite e insegnate ai sistemi di machine learning possano influenzare in modo significativo il comportamento e il pensiero dell’ intelligenza artificiale, come percepisce il mondo e lo decodifica (scopri di più su Norman cliccando qui).

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
  • Chouldechova, A., Benavides-Prado, D., Fialko, O., Vaithianathan, R. (2018). A case study of algorithm-assisted decision making in child maltreatment hotline screening decisions. In Conference on Fairness, Accountability and Transparency (pp. 134-148). DOWNLOAD
  • Kim, H., Wildeman, C., Jonson-Reid, M., Drake, B. (2017). Lifetime prevalence of investigating child maltreatment among US children. American journal of public health, 107(2), 274-280.
  • Wachter, S., Mittelstadt, B., Floridi, L. (2017). Transparent, explainable, and accountable AI for robotics. Science Robotics, 2(6), eaan6080. DOWNLOAD
CONSIGLIATO DALLA REDAZIONE
Una vita come tante di Hanya Yanagihara - Recensione del libro
Una vita come tante: uno sguardo crudo e reale sul trauma e l’abuso infantile – un libro che ogni psicoterapeuta dovrebbe leggere

Una vita come tante è un libro forte, a tratti inteso, che nasconde tra le pagine tematiche importanti come l'abuso, il trauma, la difficoltà di affrontare queste esperienze nella propria vita e nelle relazioni con gli altri, il rapporto con la propria sessualità.

ARTICOLI CORRELATI
La difficoltà del cambiamento

Non tutte le decisioni risultano facili, intraprendere un cambiamento può essere difficile e richiedere tempo ed energie

Life skills: il decision-making

Il decision-making, il processo di presa di decisione, è una delle life skills dell’OMS, considerata un'abilità trasversale e fondamentale

WordPress Ads
cancel