Intelligenza artificiale e CSR

articolo di Roya Pakzad 1/02/18
Intervista a Dunstan Allison-Hope, Managing Director BSR (Business for Social Responsibility)

Accountability
Quante volte hai sentito questa parola in una conversazione sul ruolo delle aziende nella società? Che sia stato durante una conversazione casuale con un amico sulle auto che guidano da sole o su un resoconto sul futuro dell’automazione del lavoro, o durante una riunione aziendale, oppure nelle strade durante una protesta per la protezione della privacy, scommetto che hai sentito questa frase: “Le aziende dovrebbero essere affidabili”.
La rapida crescita dell’intelligenza artificiale ha aperto nuove sfide per le aziende riguardo la loro responsabilità sociale. Un’azienda il cui motto era “vai veloce e anticipa le cose” adesso viene messa alla prova dai clienti, dalla società civile, dai governi, dagli shareholders, e forse anche dalla sua stessa coscienza sulla necessità di rallentare, guardare indietro e muoversi cautamente verso il futuro.
Dunstan Allison Hope e l’organizzazione di cui fa parte BSR (Business for Social Responsibility) è una di quelle persone che lavora per guidare le aziende verso un percorso migliore in termini di impegno su etica, diritti umani e sostenibilità. Come managing director di BSR, Dunstan ha lavorato in diversi campi della CSR compresa la privacy, la libertà di espressione, i diritti umani, lo stakeholder engagement e il reporting in diverse parti del mondo.
Qui di seguito trovate la mia conversazione con Dunstan sulla responsabilità sociale delle aziende tecnologiche con un’attenzione particolare su intelligenza artificiale e nuove tecnologie.

Dunstan ho seguito il tuo lavoro negli ultimi anni e leggendo le tue pubblicazioni ho realizzato che hai un forte interesse sul rapporto tra CSR e intelligenza artificiale. Perché?
Ho lavorato molto con aziende tecnologiche riguardo alla privacy e alla libertà di espressione, e l’intelligenza artificiale è una naturale sviluppo. Queste grandi tecnologie stanno per cambiare il business e fanno emergere nuovi problemi sociali, etici e di sostenibilità, che è ciò di cui ci occupiamo in BSR.

A che tipo di rischi vanno incontro le aziende?
Ci sono rischi specifici che variano da azienda ad azienda a seconda del settore, ma possiamo dire che il prodotto avrà un impatto negativo sui diritti umano. Incluso la violazione della privacy, la libertà di espressione, discriminazioni e la violazione dei diritti dei bambini. I bambini sono sempre più attivi nel mondo digitale. Hanno dei diritti, ma sono più vulnerabili.

I principi guida delle Nazione Unite (UNGP -The UN Guiding Principles on Business and Human Rights) definiscono alcuni principi in termini di CSR per rispettare i diritti umani. Come possono essere applicati?
UNGP parla dei processi di due diligence che significa impegnarsi nella valutazione degli impatti negativi sui diritti umani attuali e potenziali.
Le aziende dovrebbero impegnarsi a identificare gli impatti negativi e pianificare dei modi per arginarli. UNGP è abbastanza chiaro su questo, ma penso che la tecnologia sia complessa e renda difficile la realizzazione. Il problema per le aziende tecnologiche è che l’impatto maggiore avviene nella fase di uso del prodotto. Quindi come fai a valutare l’impatto se non sai come verranno usati i prodotti? Questo è impegnativo, ma non dovrebbe essere una scusa per non farlo. Le aziende possono stabilire politiche e regolare i processi in modo da evitare i rischi e assicurarsi che vengano considerati in fase di progettazione e distribuzione.

Capisco che queste policy e processi dovrebbero essere basati su principi e linee guida. Attualmente ci sono molte linee guida, codici etici e principi. Ma non riesco ancora a vedere un piano completo di implementazione a livello aziendale. Come possono le imprese implementare queste linee guida nelle loro attività?
I principi attuali sono di alto livello ma ci sono abbastanza similitudini tra loro nell’indicare la giusta direzione alle imprese. Penso che il problema stia nel fatto che non abbiamo capito cosa significhi implementarli. Per esempio per le condizioni di lavoro e la catena di fornitura, già sappiamo come le aziende dovrebbero implementare i principi. Quando si parla di Intelligenza Artificiale è tutto nuovo. Ciò di cui abbiamo bisogno è la combinazione di esempi quotidiani reali e case studies. Guardando alle differenze tra questi è possibile comprendere i principi da trasformare in pratica.
Abbiamo anche bisogno delle versioni specifiche di queste linee guida per diversi settori industriali. Per esempio, come applicare le line guida dell’intelligenza artificiale ai servizi finanziari, come applicarle alla giustizia o alle piattaforme di social media.
Ad esempio, negli Stati Uniti, a causa della protezione dei diritti civili, ci sono varie cose che le aziende non possono fare e l’Intelligenza Artificiale deve sottostare a queste regole. Ma potrebbero esserci scappatoie e rischi perché questi principi sono stati scritti in un momento storico diverso e i governi tendono a rimanere indietro quando si tratta di sviluppo tecnologico. Per esempio guarda al dibattito sulla neutralità della rete, alle regolamentazioni delle telecomunicazioni, alle regole per la privacy online. I governi tendono a muoversi più lentamente di quanto facciano le tecnologie.

In passato lei ha proposto il concetto di Human Rights by Design per le aziende di tecnologia. Come possono le imprese applicare questo concetto nel loro impegno sulla responsabilità sociale?
Nelle normali valutazioni di impatto sui diritti umani, è tipico delle aziende assumere un approccio multifunzionale. Potrebbero occuparsene i legali o le relazioni pubbliche, ma di solito la valutazione dell’impatto sui diritti umani è realizzata da team multifunzionali. Di solito partecipano le risorse umane, i legali, le relazioni pubbliche, il team CSR e i gruppi che si occupano della catena di fornitura. Invece sono quasi sempre assenti gli ingegneri o gli sviluppatori di prodotto. Questo è il punto cieco. Forse non è necessario cambiare gli strumenti o le domande nella valutazione dell’impatto, ma probabilmente è necessario cambiare i partecipanti alle sessioni. E non sono convinto che stia succedendo. Bisognerebbe coinvolgere un numero maggiore di gruppi, compresi ingegneri, informatici, team di sviluppatori di prodotto in generale.
L’altro problema è che in pratica molte valutazioni dell’impatto sui diritti umani sono fatte sul mercato, sul Paese o l’azienda in generale. Raramente sono su specifici prodotti. Penso che abbiamo bisogno di una valutazione dell’impatto sui diritti umani sul prodotto. Per esempio, sui nuovi tipi di prodotti di comunicazione e nuovi strumenti di analisi che le compagnie non avevano prima. I prodotti stessi devono essere soggetti alla valutazione, una sorta di versione estesa dei metodi usati per la gestione della privacy.

Qualche esempio di successo tra le aziende?
Qualcuno, nel contesto dei progetti più ampi, ma nemmeno lontanamente vicini all’ideale. Microsoft sta realizzando una valutazione dell’impatto sui diritti umani per l’Intelligenza Artificiale le cui conclusioni saranno molto interessanti da conoscere. Questo è un buon esempio.
Rispetto all’applicazione degli standard dei diritti umani, pensa che le aziende tecnologiche rispondano meglio ai regolamenti volontari o alle norme legislative?
La risposta esatta è entrambe! Ho letto un interessante articolo l’altro giorno sul tema della regolamentazione di aspetti specifici, ad esempio l’accesso al credito e l’Intelligenza Artificiale, che potrebbero causare diverse conseguenze impreviste. Penso anche che, volontari o obbligatori, gli approcci alla regolamentazione debbano lavorare in sintonia con la struttura di accordi internazionali esistenti per le imprese sostenibili, come i Principi Guida delle Nazioni Unite e le linee guida per le imprese multinazionali dell’Organizzazione per la Cooperazione e lo Sviluppo Economico. Personalmente, sono un grande fan degli obblighi informativi e della trasparenza come driver per migliori performance e accountability.

Qualche pensiero finale da condividere?
C’è bisogno di mettere insieme più attori e più ampiamente di quanto ora stia succedendo. I team che si occupano di CSR e sostenibilità hanno una lunga storia di coinvolgimento con grandi sfide sociali e hanno bisogno di essere coinvolti maggiormente sul tema dell’etica nell’Intelligenza Artificiale. Ma questo dibattito ha anche bisogno dell’apporto dei ingegneri e informatici. Questi approcci multidisciplinari sono essenziali e ci sono ampie possibilità di sviluppo.