L’Unione Europea presenta le nuove linee guida contenute all’interno del codice etico, presentato a Bruxelles, per infondere fiducia nell’Intelligenza Artificiale, mantenendo al centro l’uomo e garantire il suo controllo, necessario al funzionamento di qualsiasi tecnologia AI.

Come cambierà la diffusione della tecnologia, in un momento come quello attuale in cui si sente parlare sempre più frequentemente di Intelligenza Artificiale e robotica? L’impatto che i sistemi tecnologici dotati di AI stanno avendo sulla società è sotto gli occhi di tutti: potenzialmente ci rendiamo conto che questo scenario consentirà lo sviluppo di grandi opportunità, ma allo stesso tempo siamo consapevoli dei profondi cambiamenti che genererà sulla società, ponendo nuove sfide dal punto di vista operativo, economico e della sicurezza. Ma soprattutto dal punto di vista etico. 

Dalle pressanti questioni etiche per la paura delle macchine e dalla credenza che l’Intelligenza Artificiale possa, in qualche modo, abbattere i valori e i diritti fondamentali dell’essere umano, nasce la strategia dell’Unione Europea: sette principi, redatti da 52 esperti selezionati dal mondo accademico e contenuti all’interno del codice etico presentato a Bruxelles lo scorso aprile, con l’obiettivo di assicurare quella che viene definita la “Trustworthy AI”, l’intelligenza artificiale “di cui ti puoi fidare”. La strategia europea, in poche parole, è quella di puntare tutto sui temi etici come centralità umana, trasparenza, privacy, benessere sociale e rispetto dell’ambiente per infondere fiducia nell’intelligenza artificiale, mantenendo al centro l’uomo e garantire il suo controllo, necessario al funzionamento di qualsiasi tecnologia AI. 

Cosa dice il codice etico

Quello del controllo umano previsto per le tecnologie di Intelligenza Artificiale è il primo dei principi contenuti nelle linee guida Ue: l’obiettivo della prima «linea rossa» redatta dall’Europa è proprio quello di migliorare l’agire umano e i suoi diritti, senza ridurne la sua autonomia. 

Il secondo prevede che gli algoritmi siano sicuri, affidabili e resistenti di fronte ad errori o incoerenze delle diverse fasi del ciclo di vita dei sistemi di Intelligenza Artificiale. 

Il terzo che i cittadini devono essere sempre informati dell’utilizzo dei loro dati personali e averne il pieno controllo in modo che non siano utilizzati contro di loro, e questo deve essere fatto in linea con le nuove regole europee sulla tutela della privacy del Gdpr.

Il quarto principio prevede la trasparenza, ovvero garantire la tracciabilità di sistemi di Intelligenza Artificiale.

Il quinto, garantire la diversità, la non discriminazione ed equità con esseri umani che possano essere in grado di modificare le decisioni degli algoritmi, tenendo conto di tutti i fattori necessari e per assicurare la responsabilità di chi gestisce i sistemi di calcolo in caso di danni o incidenti. 

Il sesto principio dovrà lavorare a favore del benessere sociale e ambientale, aumentando la sostenibilità ecologica.

Il settimo principio è quello della responsabilità, in cui si prevede che vengano messi in atto dei meccanismi per garantire responsabilità per i sistemi di Intelligenza Artificiale e i loro risultati. 

Come si muoverà l’Europa? 

Le linee guida saranno sottoposte al test della pratica in una fase “pilota”, iniziata a giugno e che terminerà alla fine del 2019. A seguire, il gruppo di esperti potrà vagliare la sperimentazione e decidere la sostenibilità operativa delle linee guida, con la possibilità di modificarle oppure integrarle.

La European AI Alliance, insieme a AI4EU (la piattaforma on-demand dell’IA), continuerà a mobilitare l’ecosistema AI in tutta Europa, anche in vista del pilotaggio delle linee guida sull’etica dell’IA e della promozione del rispetto per l’intelligenza umana. In questo senso, la Commissione, in questo senso, sta adottando un approccio in tre fasi: definizione dei requisiti chiave per un’intelligenza artificiale affidabile, avvio di una fase pilota su vasta scala per il feedback delle parti interessate e elaborazione di un consenso internazionale per l’intelligenza artificiale umana-centrica.

Leggi anche Perché gli utenti preferiscono i chatbot

Perché non c’è da avere paura delle macchine?

Sappiamo bene come l’Intelligenza Artificiale, nella sua continua e veloce evoluzione, “può avvantaggiare un’ampia gamma di settori: dall’assistenza sanitaria al consumo di energia, alla sicurezza delle automobili, all’agricoltura, fino ai cambiamenti climatici e alla gestione dei rischi finanziari”, come evidenzia il comunicato dell’Unione Europea. Nel nostro piccolo, come azienda impegnata nello sviluppo di nuove tecnologie supportate dall’Intelligenza Artificiale, riteniamo necessario che la corsa all’innovazione, in tutti settori sia inevitabile per farsi spazio e lasciare il segno nel mercato attuale.

Ciò in cui QuestIT crede fermamente, però, è il valore dell’uomo al centro di questa grande rivoluzione tecnologica. L’apprendimento automatico (machine learning) dà alla macchina una capacità di calcolo mai vista prima. Ma lo strumento, da solo, non può certo fare magie. Dietro alla conoscenza delle piattaforme e delle tecnologie dotate di Intelligenza Artificiale c’è sempre la mediazione dell’uomo, l’unico in grado di dare ai computer l’accesso alla conoscenza del mondo reale per fare in modo che siano effettivamente capaci delle nostre esigenze. È in questo approccio, dal quale si origina quello che viene chiamato human-in-the-loop, che si colloca la conoscenza e l’esperienza delle persone al centro dei processi di machine learning. Ecco perché la nostra azienda ha fiducia da sempre nelle nuove tecnologie, su cui ha fondato le proprie radici sin dalla sua nascita nel 2007: la responsabilità più grande è quella di non infondere la paura nelle macchine, ma saperne sfruttare il grande potenziale in cui l’uomo avrà sempre il controllo, in ogni campo di applicazione. E solo e pur sempre l’uomo.

Fonte: Il Sole 24 Ore