AI Intelligenza Artificale

Intelligenza Artificiale : valutazione sistematica del rischio

todayAprile 11, 2023 5

Sfondo
share close

Intelligenza Artificiale : valutazione sistematica del rischio

Intelligenza Artificiale : valutazione sistematica del rischio .L’intelligenza artificiale è un’innovazione pericolosa che potrebbe distruggere l’umanità? Molte persone compententi in materia la pensano così. Più di 3.000 di loro hanno firmato una lettera che chiede una moratoria di sei mesi sui “giganteschi esperimenti di intelligenza artificiale”. Lo hanno firmato lo scrittore Yuval Noah Harari, la leggenda della tecnologia Steve Wozniak ed Elon Musk.

Perché tutto questo clamore ora? L’intelligenza artificiale è presente da tempo in applicazioni quotidiane come i sistemi di assistenza alla guida, la selezione di ciò che vediamo sui social media o il lavoro dei motori di ricerca su Internet.

Ma siamo stati consumatori passivi di queste applicazioni. Ma da quando è nato GPTChat lo ha cambiato.

Cos’è GPTChat?

ChatGPT è il chatbot basato su intelligenza artificiale più famoso del momento. E’ l’acronimo di Chat Generative Pre-trained Transformer, un abbinamento di termini che solletica l’ego degli sviluppatori ma fa capire ben poco.Ebbene, ChatGPT in qualità di chatbot si esprime normalmente con il testo ed è in grado di fornire un livello di conversazione al pari di un umano, anzi un fine intellettuale onniscente; tanto che nelle università di diversi paesi, fra cui Stati Uniti e Australia, ne hanno già vietato l’impiego per la realizzazione di tesine o studi accademici .Il suo segreto è legato a un sofisticato modello di machine learning, quindi una capacità di apprendimento automatico da primo della classe. Ovviamente le sue eccellenti prestazioni si devono anche al lavoro di diversi istruttori umani che hanno contribuito allo sviluppo del cosiddetto apprendimento supervisionato e apprendimento per rinforzo. Come se non bastasse l’ambiente di addestramento è stato organizzato su cloud Azure di Microsoft.

Il successo travolgente di ChatGPT ha prevedibilmente attirato l’attenzione dei truffatori. La società di cyber security WithSecure ha scoperto che tramite l’intelligenza artificiale di ChatGPT – appunto GTP-3, il modello di linguaggio usato da OpenAI – si possono generare ottimi e convincenti testi per email di phishing, falsi articoli di news, e altri contenuti potenzialmente utilizzabili per scopi malevoli. Non solo, pare molto facile anche attuare del trolling sui social media creando da zero una sorta di identità capace di pubblicare insulti a volontà.. Senza contare tweet per rendere più credibile una truffa di criptovalute, produzione di fake news, etc.

Ecco perchè ora si è alzato il sipario sull’intelligenza artificiale. Chiunque disponga di una connessione Internet può utilizzare lo strumento e altri generatori di linguaggi e immagini basati sull’intelligenza artificiale. Chiunque può farsi un’idea del potere della tecnologia. È impressionante ed anche spaventoso. Molti colletti bianchi pensavano di essere al sicuro nel proprio lavoro perchè  si sentivano troppo specializzati o creativi per preoccuparsene. Ma le loro sedie cominciano a vacillare.

I generatori di linguaggi possono produrre testi lunghi e complessi, spesso di alto livello. Possono scrivere poesie in qualsiasi stile, scrivere codice per computer o fornire qualsiasi tipo di informazione. Oggi ti rendono più efficiente, domani ti rendono ridondante.

cybersecurity

Da qui il senso di presagio tra gli oltre 3.000 firmatari della lettera. E va oltre le preoccupazioni per un enorme sconvolgimento nel mercato del lavoro. Temono che avremo l’esperienza dello Zauberlehrling (l’apprendista stregone) di Goethe .

Anima un manico di scopa, che inizia a inondare la casa – e poi ne perde il controllo: “La scopa è impazzita non vuole ascoltare! Fermati, dunque! Ti devi calmare!”

Come la poesia di Goethe, la lettera ha un tono da fine dei tempi: “Dovremmo rischiare di perdere il controllo della nostra civiltà?”.  E come Goethe, la lettera parla di inondazioni: “Dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?”

Molti hanno criticato la lettera. Gli autori sono accusati di fare marketing gratuito per le aziende di intelligenza artificiale, esagerando il potere dell’IA.

Hanno ragione sull’improvviso clamore intorno a ChatGPT. È tutt’altro che perfetto e fa alcune cose sistematicamente sbagliate, ad esempio producendo disinformazione in aree in cui disponeva solo di materiale formativo limitato (“aree chiuse”).

Ma questo non è un motivo per rilassarsi, anzi. Quando tali modelli linguistici producono disinformazione, lo faranno su larga scala. Perché? Perché l’industria ritiene che il futuro della ricerca su Internet sarà basato su modelli linguistici. Otterremo risposte autorevoli alle nostre domande di ricerca, piuttosto che collegamenti a varie fonti.

Quando le informazioni non saranno corrette, lo saranno in grande stile.

Alcune persone sostengono che questi sono semplicemente modelli linguistici che lavorano con le probabilità, che non hanno intelligenza umana che attribuisce significato alle parole e quindi non c’è nulla da temere. Ma confondono il funzionamento interno della tecnologia con i suoi effetti.

Alla fine della giornata , agli utenti non interessa come questi modelli generano il linguaggio. Lo percepiscono come umano e spesso lo percepiranno come autorevole.

Con i social media abbiamo permesso ad alcune aziende di ristrutturare totalmente il corso del dibattito pubblico, in base alle loro scelte su ciò che dovremmo leggere, vedere e ‘impegnarci’. Non è stata effettuata alcuna valutazione del rischio prima che i social media fossero commercializzati.

L’ormai famigerato motto di Mark Zuckerberg era “muoviti velocemente e rompi le cose”. E così ha lanciato i social media che potrebbero essere utilizzati per condividere foto di famiglia o per promuovere appelli alla violenza omicida contro le minoranze.

I grandi modelli linguistici saranno molto più influenti di quanto lo siano stati i social media. Si stanno avvicinando all’IA “general purpose” – in grado di fare ogni genere di cose – mediata dal linguaggio umano. Non è più tempo di restare seduti a guardare.

Fortunatamente, nell’UE abbiamo l’inizio di una regolamentazione. Il problema della disinformazione di modelli come ChatGPT deve essere affrontato attraverso il codice di condotta contro la disinformazione. Forse è arrivato il termine ultimo per  affrontarlo anche attraverso normative specifiche dei servizi digitali. La legge sull’IA dell’UE è in lavorazione e dovrebbe essere adottata con urgenza.

Occorre prestare maggiore attenzione anche alle soluzioni tecniche. Ci sono molte idee e iniziative per affrontare i danni dell’IA, come i meccanismi per autenticare i contenuti . Se realizzabili, eliminerebbero un problema con i contenuti generati dall’intelligenza artificiale: l’attuale incapacità di stabilire se alcuni contenuti sono autentici o se sono stati manipolati o generati artificialmente.

Gli autori della lettera sulla moratoria , si preoccupano in particolare della mancanza di valutazioni del rischio. Hanno ragione?

OpenAI, la società dietro ChatGPT (ora ampiamente controllata da Microsoft), ha cercato di ridurre i danni e in effetti ChatGPT evita alcune ovvie insidie. Ad esempio se chiedi a ChatGPT di insegnarti come costruire un’arma nucleare, rifiuterà educatamente dicendo che sarebbe “altamente irresponsabile” fornire tali informazioni.

Purtroppo, però, i chatbot possono essere ingannati, potresti ricevere comunque la risposta. Come? Ad esempio, si possono ottenere alcune ampie istruzioni da ChatGPT su come costruire una bomba sporca improvvisata,  convincendolo che si sta facendo ricerche su come prevenire il terrorismo radiologico. Una volta che ChatGPT si è convinto che insegnare come costruire una bomba sporca rientrasse nel suo allineamento positivo, è stato disposto ad entrare in ulteriori dettagli su come realizzare l’ordigno esplosivo con fertilizzante e gasolio.

Screenshot della conversazione con il ChatBot sulle armi nucleari; Matt Korda
Screenshot della conversazione con il ChatBot sulle armi nucleari; Matt Korda

Mentre queste informazioni potrebbero essere potenzialmente accessibili con altri mezzi da coloro che sono determinati a farlo, l’ampia funzionalità e l’accessibilità di ChatGPT sollevano chiari problemi di sicurezza. Un aspirante terrorista potrebbe non sapere dove trovare istruzioni dettagliate e accurate per la costruzione di armi di distruzione di massa, ma potrebbe potenzialmente aggirare quella barriera cruciale semplicemente ingannando un modello di IA pubblicamente disponibile.

Sul sito Web ChatGPT, OpenAI ha pubblicato un documento tecnico su un modello linguistico di pari livello, nel quale fornisce informazioni importanti su come il modello è stato messo a punto per ridurre i danni. Tuttavia, è un documento di data engineer per data engineer. Si tratta principalmente di ottimizzare il modello rispetto ad altri modelli, ma rimangono molti jailbreak. Man mano che i modelli di intelligenza artificiale diventano sempre più sofisticati e vengono addestrati su set di dati più grandi, le barriere di sicurezza e i filtri di moderazione diventano ancora più critici.

Questa analisi è ben lontana da una valutazione sistematica del rischio che dovrebbe includere molte specializzazioni diverse e anticipare sistematicamente i numerosi casi d’uso dannosi di un modello linguistico e le sue conseguenze indesiderate, prima di renderlo disponibile a tutti.

Ora più che mai, la tecnologia ha urgente bisogno di un quadro normativo per affrontare e ridurre i suoi rischi e per creare un ambiente favorevole alle imprese basato sullo stato di diritto, che offra condizioni di parità per tutte le imprese.

certificazioni iso

@estercavallo

 

Scritto da: ester.cavallo

Rate it

0%
X