Scritto da: Matteo Quadranti – Gran consigliere PLR

Fonte: http://www.quadranti.ch/i-principi-di-asilomar-per-lintelligenza-artificiale-oltre-i-pessimismi/

Oggi tutti parlano di robotica, intelligenza artificiale (AI). Non era così quando già 4 anni orsono proposi di lanciare un dibattito pubblico anche in Ticino su queste questioni. Troppo concentrati sui posti di lavoro occupati dai “non-nostri” per vedere i posti di lavoro verranno persi con le tecnologie e quali nuovi mestieri dovremo invece spingere. Conoscere per deliberare è il motto liberale. Quindi inutile nascondere la realtà dell’evoluzione sopra descritta o tacciare chi la sollevò di apocalittico e pessimista. Meglio è sapere, per reagire e affrontare il futuro in tempo. Per sopravvivere nell’economia del futuro, dobbiamo essere complementari (e non alternativi) rispetto alle macchine e unici rispetto agli altri umani. L’automazione può far leva sulla sua velocità e precisione per soppiantare di nuovo il lavoro umano. Dobbiamo concentrarci sulle nostre competenze non uniformabili e non su attività codificabili. Nel ‘900, con l’avvento della tecnologia di produzione di massa molti artigiani, seppure esperti, sono stati sostituiti dalla combinazione di macchine e manodopera meno qualificata. Con l’intelligenza artificiale sono a rischio tanti posti di lavoro qualificati. Computer e internet mettono sotto pressione le occupazioni cognitive di routine, che sono sostituite con le nuove tecnologie. Il nuovo lavoro cognitivo richiede alte competenze che verranno sfruttate da poche aziende in grado di impiegare le rare intelligenze per dominare sul piano mondiale. Questo lavoro accrescerà le nostre diseguaglianze, poiché l’aumento della domanda verso attività più qualificate ne aumenta anche la retribuzione. Non tutti potranno aspirare a alle attività più remunerate. Non si può realizzare questo percorso perché bisogna avere forti conoscenze tecniche di base per poter poi imparare. Le macchine ora imparano osservando il comportamento umano e, con piccoli feedback manuali, si migliorano da sole. Sono loro i nuovi apprendisti. Ci rimane l’ultima parte umana, ossia insegnare alle macchine. Il progresso tecnologico è ineluttabile, ma le conseguenze, potenzialmente molto positive, sono ancora nelle nostre mani. Tutto dipenderà dalle politiche che stiamo mettendo in campo oggi. Politiche miranti alla formazione e gestione degli impatti nel mercato del lavoro, che non prendono la scorciatoia populista. Nella vicina UE avanzano nuove norme sul diritto civile dei robot per disciplinare l’ascesa di robot e intelligenza artificiale in Europa, soprattutto in ambiti delicati quali la responsabilità civile delle macchine: eventualmente, chi (programmatore, produttore e venditore) risponde, dei danni causati da un robot che ha imparato da solo a svolgere e sviluppare le sue missioni? Ci vorrà una RC oggettiva come per le automobili? La richiesta legislativa insiste su alcuni pilastri: la creazione di uno status giuridico per i robot come «persone elettroniche» responsabili civilmente e penalmente delle proprie azioni; una vigilanza continuativa delle conseguenze sul mercato del lavoro e gli investimenti necessari per evitare una crisi occupazionale; un codice etico per gli ingegneri che si occupano della realizzazione di robot. Sul fronte caldo del mercato del lavoro, l’UE stima 825mila posti di lavoro vacanti nella «economia robotica» entro il 2020, c’è chi ribadisce – come il World economic forum (Wef) – che l’automazione rischia di cancellare intere categorie lavorative e provocare milioni di esuberi. Da qui la necessità di sviluppare competenze digitali in tutte le fasce di età e a prescindere dalla posizione lavorativa e di incentivi ad hoc per Pmi e startup che spingono sulle nuove occupazioni nel settore. Sul fronte dei diritti-doveri, la risoluzione propone una «Carta robotica»: un codice deontologico per gli ingegneri robotici, un codice per i comitati etici di ricerca e specifiche licenze per i progettisti, con garanzie di sicurezza per gli utenti e la tutela della privacy fin dalla progettazione del robot a protezione e gestione delle informazioni private acquisite in automatico.

L’intelligenza artificiale sta cambiando il mondo in modo impattante, ma ci sono alcuni pericoli. Ecco perché Elon Musk (CEO di Tesla), Stephen Hawking (astrofisico) e altri 2335 ricercatori ed esperti, sotto l’egida del neocostituito Istituto Future of Life, hanno approvato un cyber-manifesto di 23 “Principi di Asilomar”. Asilomar è la località californiana in cui a gennaio 2017 si è tenuta una conferenza i cui esiti sono stati raccolti nel best seller “Life 3.0: being human in the Age of Artificial Intelligence” di Max Tegmark, professore al MIT di Boston. Tegmark affronta le visioni pessimiste per sognare “scientificamente”, in un arco di tempo lunghissimo, i possibili scenari positivi dell’umanità, tra cui una probabile, seppur non certa, super-intelligenza collettiva che ci aiuterà a vivere meglio.  Ma il lieto fine non è garantito: oggi c’è una vorticosa e caotica corsa a creare programmi, prodotti, ambienti plasmati con la potenza di calcolo dell’AI ma non indirizzati con chiarezza al bene comune o a una visione positiva, per proteggere e rilanciare la nostra umanità in una chiave, appunto, umanista. Lo scopo di Future of Life è creare un network globale di studiosi e opinion maker che concorrano attivamente a creare progetti e a influenzare applicazioni di A.I. nel segno di un umanesimo in cui la tecnologia aiuti a vivere meglio e non a far perdere posti di lavoro, o a creare armi distruttive di nuova generazione.

I 23 Principi si suddividono in tre aree: Ricerca – Etica e valori – Problemi di scenario. I principi che interessano l’etica sono la maggior parte e riguardano privacy, democrazia, responsabilità, trasparenza, sicurezza, libertà e condivisione del benessere. I Principi sono quindi tesi sul futuro del mondo e dell’umanità.

Matteo Quadranti, Gran Consigliere

Allegato:

I 23 principi

L’AI ha già fornito strumenti utili che vengono utilizzati ogni giorno da persone in tutto il mondo. Il suo continuo sviluppo, guidato dai seguenti principi, offrirà incredibili opportunità per l’umanità in futuro.

Problemi di ricerca

1) Obiettivo della ricerca sull’Intelligenza Artificiale [AI] non dovrà essere quello di creare un’intelligenza non-orientata [neutrale, indifferente], ma un’intelligenza benefica.

2) Finanziamenti della ricerca dovranno essere mirati a garantirne l’uso benefico, comprese le questioni spinose in informatica, economia, diritto, etica, e studi sociali, come ad esempio:

Come possiamo rendere i futuri sistemi di AI robusti al punto che facciano quello che vogliamo, senza malfunzionamenti e senza che siano hackati?

Come possiamo far crescere la nostra prosperità attraverso l’automazione, senza marginalizzare gli uomini?

Come possiamo aggiornare i nostri sistemi giuridici in modo che siano più equi ed efficaci, per tenere il passo con l’AI e per gestirne i rischi?

Quale insieme di valori dovranno seguire le AI, e quale stato etico-legale dovranno avere?

3) Il rapporto tra scienza e politica dovrà essere di sana e costruttiva interazione.

4) Una cultura di cooperazione, fiducia e trasparenza dovrà essere promossa tra i ricercatori e gli sviluppatori.

5) I gruppi di ricerca dovranno cooperare ed evitare scorciatoie sugli standard di sicurezza.

Etica e Valori

6) I sistemi di AI devono essere sicuri e protetti per tutta la loro vita operativa e verificabili, se necessario.

7) Se un sistema di AI provoca danni, dovrà essere possibile accertarne con trasparenza il motivo.

8) Qualsiasi coinvolgimento da parte di un sistema di AI giuridico autonomo dovrà essere in grado di fornire una spiegazione soddisfacentemente [per le proprie decisioni] verificabile da un’autorità umana competente (trasparenza giudiziaria).

9) Progettisti e costruttori di sistemi avanzati di AI sono parti interessate nelle implicazioni morali del loro uso, abuso ed azioni, con la responsabilità e l’opportunità di plasmare tali implicazioni.

10) I sistemi di AI autonomi dovranno essere progettati in modo che i loro obiettivi e comportamenti possano essere affidabilmente allineati con i nostri valori in tutto il loro funzionamento.

11) I sistemi di AI dovranno essere compatibili con gli ideali di dignità umana, dei diritti, della libertà e della diversità culturale.

12) Andrà garantito il diritto di accedere, gestire e controllare i dati generati dagli utenti, dato il potere dei sistemi di AI di analizzare e utilizzare tali dati.

13) L’applicazione di AI ai dati personali non deve irragionevolmente limitare la libertà delle persone.

14) Le tecnologie di AI dovranno essere condivise a beneficio del maggior numero di persone possibile.

15) La prosperità creata dall’AI dovrà essere condivisa, in linea di massima, a beneficio di tutta l’umanità.

16) Gli esseri umani dovranno mantenere il controllo e scegliere come e se delegare decisioni ai sistemi di AI.

17) Il potere conferito dal controllo dei sistemi di AI altamente avanzati dovrà rispettare e migliorare, e non sovvertire, i processi sociali e civili da cui dipende la salute della società.

18) Una corsa agli armamenti in armi letali autonome dovrà essere evitata.

Problemi a lungo termine

19) Non essendoci un consenso, dovremo evitare di supporre quali possano essere i limiti superiori delle future capacità dell’AI.

20) L’arrivo delle AI avanzate potrebbero rappresentare un cambiamento profondo nella storia della vita sulla Terra, e dovrà essere pianificata e gestita con l’attenzione e le risorse necessarie.

21) I rischi associati ai sistemi di AI, in particolare i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione commisurati con il loro potenziale impatto.

22) I sistemi di AI progettati per auto-migliorarsi o auto-replicarsi in maniera da portare ad un rapido aumento della loro qualità o quantità, devono essere soggetti a severe misure di sicurezza e di controllo.

23) La Super intelligenza dovrà essere sviluppata solo al servizio di ideali etici ampiamente condivisi e per il beneficio di tutta l’umanità, piuttosto che di un singolo Stato o organizzazione.

Share This