Le valutazioni d’Impatto dei sistemi di AI sono uno dei principali strumenti che ad oggi sono stati individuati per rispondere a delle preoccupazioni quali quelle portate ad esempio ultimamente da Eric Schmidt, ex CEO di Google, il 22 luglio 2022 all’Aspen Security Forum, quando ha definito l’Intelligenza Artificiale come una tecnologia pericolosa al pari di una bomba nucleare, che necessita dunque di essere regolamentata dagli Stati per allinearla ai valori delle nostre società.

Per ora sono già molti i modelli adottati nel mondo e altri sono in via di definizione, come quelli dell’Unione Europea, fra gli altri.

Il dibattito è sicuramente ancora caldo a livello internazionale, e il problema centrale che ci si sta ponendo è…

  • “Che cosa intendiamo esattamente quando parliamo di valutazioni d’impatto dell’intelligenza artificiale?”
  • …e qual è la differenza che sussiste fra le valutazioni d’impatto dell’intelligenza artificiale e quelle per la protezione dei dati personali?
  • I modelli attualmente adottati sono delle vere e proprie linee guida o piuttosto una serie di indicazioni generali che andranno sviluppate?

Questa serie di “Elementi sull’impatto dell’AI” si propone di fare un po’ di luce in un panorama socio-normativo così incerto, partendo dalle esperienze raccolte da ReD OPEN Factory sul tema.  Affrontando di settimana in settimana le varie implicazioni del tema ci rivolgeremo a chi ancora non comprende quanto tutto questo coinvolga imprese e le organizzazioni che generalmente adottano una qualsivoglia forma di applicazione dell’Intelligenza Artificiale.

Continua …