La notizia è di pochi giorni fa, il Garante della privacy italiano ha bandito temporaneamente l’uso on line di ChatGPT (il software progettato per simulare l’intelligenza umana) dopo aver sollevato obiezioni su due aspetti.
Limite di età ma nessun controlla
La mancanza di un’informativa rivolta agli utenti i cui dati vengono raccolti dalla piattaforma e, ancor più grave a giudizio dell’Autorità la mancanza di una base giuridica che possa giustificare la raccolta e la conservazione dei dati personali per poter istruire gli algoritmi che permettono il funzionamento del servizio di intelligenza artificiale. Inoltre c’è un problema legato al limite di età. Il servizio è rivolto solo ai maggiori di 13 anni di età ma non esiste un filtro che permetta di verificare l’età degli utenti rendendo di fatto la piattaforma accessibile a tutti, con il rischio di risposte agli utenti minori “non idonee”. Il divieto ci sarà sino a quando OpenAI, proprietario di ChatGPT non rispetterà la legge italiana. OpenAI è una start-up statunitense di ricerca sull’intellligenza artificiale fondata da Elon Musk e Sam Altman e supportata da Microsoft.
ChatGPT ha fatto subito scalpore per la sua capacità di generare risposte pertinenti alle domande degli utenti attraverso la chat su una vasta gamma di argomenti, oltre che a creare una serie di contenuti, quando richiesto con un linguaggio simile a quello umano. Ma non si era ancora spento l’eco delle polemiche in Italia per la decisione del Garante, che è arrivato l’appello di Elon Musk da oltre Oceano, firmato da oltre mille esperti del settore tech. E’ urgente fermare lo sviluppo dell’intelligenza artificiale e dei software come ChatGPT per concedere il tempo necessario a elaborare le regole per il suo controllo. La lettera aperta è stata sollecitata dal rilascio di ChatGPT-4 da OpenAI. L’azienda ha infatti affermato che il suo ultimo modello è molto più potente della versione precedente.
Bisogna sviluppare protocolli di sicurezza
Questi sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità afferma la lettera intitolata “Pause Giant AI Experiments”. La lettera invita “tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi lo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4”. I sei mesi dovrebbero essere utilizzati per sviluppare protocolli di sicurezza, sistemi di governance dell’AI e per riorientare la ricerca al fine di garantire sistemi più accurati e sicuri. Ma non tutti anche in America la pensano così. Il President of Global Affairs di Google e Alphabet, Kent Walker è infatti intervenuto evidenziando come “la sfida sia quella di ridurre i rischi e promuovere implementazioni che siano all’altezza dei benefici che produce”.
Intelligenza artificiale: una grande opportunità se gestita con intelligenza umana
L’IA ha aperto, secondo Walker nuove possibilità per la medicina personalizzata, l’agricoltura di precisione e la desalinizzazione dell’acqua. Ha poi evidenziato i principi fondamentali che i governi dovrebbero seguire per la regolamentazione.
1) Partire dalla normative esistenti: molte norme applicate a privacy, sicurezza e tutela pubblica sono applicabili all’intelligenza artificiale.
2) Mantenere un contesto equilibrato basato su applicazioni reali: l’IA può essere usata in molti modi diversi che richiedono approcci su misura e responsabilità diverse tra chi sviluppa e chi implementa.
3) Promuovere un allineamento internazionale.
4) Garantire la parità di aspettative tra sistemi IA e sistemi non IA.
5) Promuovere la trasparenza.
Siamo solo all’inizio, ma la partita è importante, la tecnologia ha sempre richiesto cambiamenti importanti, culturali, sociali, economici ed anche giuridici. Ma ha anche consentito di far progredire l’umanità e di farla vivere meglio. Oggi abbiamo davanti una sfida importante ma il rischio vero è quello di non affrontarla, sarebbe un errore tremendo per noi e per il nostro futuro, ma sopratutto per i nostri figli e per le nuove generazioni.
Giovanni Maria Paviera