“Microsoft non intende fornire strumenti di intelligenza artificiale che possano violare i diritti umani”. Arrivano dalle colonne del quotidiano francese Le Monde le parole di Eric Horvitz, direttore dei laboratori di ricerca della società di Redmond negli Stati Uniti. In una lunga intervista, Horvitz ha spiegato le mosse di Microsoft riguardo al tema dell’utilizzo etico dell’AI. A cominciare dalla recente polemica sull’utilizzo di tecnologie sviluppate da Microsoft da parte dell’agenzia federale Immigration and Customs Enforcement (Ice), che monitora l’immigrazione tra Stati Uniti e Messico.
La levata di scudi dei dipendenti
Al centro del dibattito c’è la vicenda della separazione dei bambini dai propri genitori al confine tra i due Paesi. Il caso, scoppiato a giugno, aveva spinto alcuni dipendenti a chiedere a Microsoft di interrompere il contratto con la Ice. “Sono certo che discuteremo di questo argomento insieme – ha spiegato Horvitz -, perché affrontiamo questi temi in modo molto serio”.
Il rapporto tra l’azienda informatica statunitense e l’agenzia federale, prosegue, riguarda l’utilizzo del “nostro servizio cloud Azure, con cui la Ice gestisce email, documenti e messaggi”. L’intelligenza artificiale, chiarisce Horvitz, in questo caso non c'entra. È vero che a gennaio, in un comunicato, Microsoft annunciava che Ice avrebbe utilizzato l’AI per velocizzare il riconoscimento facciale e l’identificazione, ma “si è trattato di un errore di comunicazione perché non c’è mai stato” un utilizzo simile. Usare una simile tecnologia per scopi di sorveglianza è qualcosa che “ci preoccupa molto”, ha chiarito il numero uno dei laboratori di Redmond.
“Abbiamo detto no a una città poco rispettosa dei diritti umani”
Horvitz, che è anche cofondatore di Partnership on AI, un consorzio di ricerca nato nel 2016 e che riunisce più di 50 aziende tecnologiche attive nell’ambito dell’intelligenza artificiale, ha anche raccontato come, in nome di un utilizzo etico dei servizi di Microsoft, sia già capitato di dire no ad alcuni clienti.
“Abbiamo ricevuto una richiesta da una grande città di una regione del mondo che non è famosa per il suo rispetto per i diritti umani – ha ricordato Horvitz senza specificare quale sia -. Abbiamo riunito il nostro comitato: dopo aver riflettuto a lungo abbiamo deciso di dire di no. Microsoft non vuole rischiare di fornire strumenti che potrebbero essere utilizzati per violare i diritti umani”. I comitati di Microsoft sono sette, analizzano e giudicano casi concreti su diversi temi, dall’utilizzo dell’AI in casi sensibili ai pregiudizi della tecnologia, fino alla collaborazione tra macchine ed esseri umani.
The future computed, il libro guida di Microsoft
“L’intelligenza artificiale e il suo ruolo nella società”: è questo il sottotitolo di The future computed, la pubblicazione di Microsoft dello scorso gennaio in cui l’azienda cercava di decifrare le sfide dei prossimi vent’anni in ambito informatico.
Un lasso di tempo in cui “inevitabilmente sorgeranno nuove e complesse domande” che riguarderanno la società e il suo modo di rapportarsi con la tecnologia. Fin da ora, veniva sottolineato nel testo, “serve uno sguardo critico” per mettere a punto “principi etici resistenti, (adeguate, ndr) riforme del mercato del lavoro e leggi” all’altezza.