Questioni Etiche nell’Uso di GPT e Intelligenza Artificiale Generativa

In questo periodo il tema sull etica nell’uso di GPT è un tema ricorrente, mi sono interrogato e ho raccolto informazioni su quali sono le principali preoccupazioni e i principali di etica collegato a GPT o generartive-AI in senso più ampio.

Bias, preconcetti, e manipolazione dell’informazione

I modelli LLM apprendono da enormi quantità di dati testuali disponibili online, che possono includere linguaggi e opinioni prevenuti o discriminatori. Questo aspetto può influenzare il modello a generare risposte che riflettono o amplificano questi bias, perpetuando stereotipi o pregiudizi. Il modo in cui il modello viene addestrato e i dati che utilizza sono cruciali per determinare il tipo e l’entità del bias presente nelle sue risposte. Si conosce il tipo di sorgente utilizzato per l’apprendimento ma non i dettagli o i filtri che sono stati applicati all’origine.

A questo si aggiunger che la capacità di GPT di generare contenuti realistici e convincenti può essere sfruttata per creare e diffondere disinformazione. Compreso la generazione di notizie false, articoli ingannevoli, o commenti che possono essere utilizzati per scopi di propaganda, manipolazione dell’opinione pubblica, o per influenzare indebitamente il dibattito pubblico. Già è capitato con facebook in passato fosse usato con account finti per manipolare l’opinione pubblica, immaginiamo uno stuolo di agenti creati con LLM tutti addestrarti a fare da influencer per un prodotto commerciale e o un partito politico sui social. Personalmente credo che l’impatto sarebbe devastante.

Responsabilità sulla generazione dei contenuti

La guida autonoma di livello 4 e l’output dei sistemi LLM pongono interrogativi legali simili sulla responsabilità in scenari di autonomia quasi completa. Nel caso di un incidente causato da un veicolo autonomo di livello 4, di chi è legalmente responsabile? La normativa è in fase di studio almeno in Italia. Parimenti, quando GPT genera contenuti errati, la questione della responsabilità diventa focale, non a caso è sempre presente un disclaimer in pagina. In entrambi i casi, definire chi sia legalmente responsabile in assenza di un intervento umano diretto presenta sfide significative, riflettendo il bisogno di nuove regolamentazioni e approcci legali in un’era di crescente automazione.

Questo non è l’unico aspetto legato alla responsabilità sulla generazione dei contenuti. Gen-AI può generare (o meglio essere usato, ma volutamente non uso il verbo riflessivo) contenuti molto simili ad altri protetti da copyright, e può riesumare voci di personaggi famosi estinti riproponendo canzoni inedite. Chi è responsabile se gen-AI genera contenuti della proprietà intellettuale, magari anche in modo ignaro per l’utilizzatore, semplicemente perché il bias di addestramento conteneva documenti tutelati da copyright. Mentre chiudevo il testo mi sono posto anche la domanda, di chi è la proprietà intellettuale di un contenuti generato da gen-AI? Ci rifletterò nei prossimi giorni.

Conclusione

La sfida sta nel bilanciare la libertà di espressione con la necessità di contrastare la disinformazione. Personalmente utilizzo GPT quotidianamente come assistente personale in molteplici situazioni, soprattutto creazione di codice. Passo al setaccio tutto quello che genera e a volte scarto i contenuti generati, altre volte lo correggo. Credo che avere un’evidenza se un contenuto o un’interazione è umana o artificiale possa risolvere parzialmente il problema. Qualcosa di simile a quello che succede con i prodotti promozionali presentati durante le trasmissioni televisive.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

WP to LinkedIn Auto Publish Powered By : XYZScripts.com