GenAI e Normative: come si muove la comunità Europea

Oggi (13 febbraio) il comitato europeo sull’intelligenza artificiale dovrebbe approvare un nuovo regolamento in materia Intelligenza Artificiale che sarà successivamente votato dal parlamento Europeo nel mese di marzo per diventare legge europea. Sono i passi finali di un percorso iniziato nel 2022

Il testo approvato già in bozza il 2 febbraio 2024 per l’Atto sull’Intelligenza Artificiale (AI Act) dell’UE segna un passo significativo nella regolamentazione dell’uso dell’intelligenza artificiale. Questa legislazione mira a stabilire uno standard globale per una tecnologia impiegata in una vasta gamma di settori, dal bancario e al dettaglio fino ai settori automobilistico e aereo, nonché per usi militari, nella lotta alla criminalità e per scopi di sicurezza​. L’Atto sull’IA stabilisce anche che i fornitori di sistemi AI ad alto rischio dovranno effettuare valutazioni di impatto sui diritti fondamentali e sulla protezione dei dati, oltre a implementare sistemi di gestione del rischio durante tutto il ciclo di vita del prodotto​​. Questo è particolarmente importante in contesti come il riconoscimento biometrico, dove la raccolta e l’uso dei dati biometrici sollevano significative preoccupazioni per la privacy.

Il testo definisce una nuova classificazione dei rischi per i sistemi AI, stabilendo obblighi specifici per le categorie ad alto rischio e vietando alcune applicazioni ritenute inaccettabili a causa dei loro rischi. Ad esempio, saranno vietate le tecniche subliminali per modificare il comportamento individuale, il targeting e lo sfruttamento delle vulnerabilità di gruppi specifici, i sistemi di punteggio sociale, il riconoscimento biometrico in tempo reale in spazi pubblici per l’applicazione della legge, tra gli altri. I sistemi AI ad alto rischio, stimati dalla Commissione Europea essere circa il 5-15% dei sistemi AI, dovranno soddisfare obblighi sostanziali, inclusi valutazioni di conformità da parte di terzi e la registrazione in un database dell’UE​

​È importante notare che l’Atto sull’IA introduce regole specifiche anche per i modelli di AI di uso generale (GPAI), con requisiti per la classificazione dei modelli con rischio sistemico e obblighi procedurali per i loro fornitori. Questo include l’obbligo di redigere e mantenere aggiornata la documentazione tecnica del modello e fornire un riassunto dettagliato del contenuto utilizzato per l’addestramento del modello. I fornitori di GPAI con rischio sistemico dovranno inoltre valutare e mitigare i possibili rischi sistemici e garantire un adeguato livello di protezione della cybersecurity​

​L’accordo raggiunto il 2 febbraio sembra essere stato accolto positivamente, per l’equilibrio espresso tra innovazione e sicurezza, ciò nonostante alcune delle regole proposte dell’IA sono restrittive e potrebbero rallentare lo sviluppo e lo sviluppo di applicazioni AI innovative in Europa. L’implementazione dell’Atto e le modalità attuative saranno fondamentali per garantire che le regole dell’IA non gravino eccessivamente sulle aziende nella loro ricerca di innovazione e competitività in un mercato vivace e altamente dinamico​. Per ora il rischio quindi un’innovazione a due marce tra Europa e resto del mondo sembra concreto, con l’Europe che potrebbe procedere rallentata.

Il prossimo passo per l’Atto sull’IA per diventare legislazione è un voto da parte di un comitato chiave di legislatori dell’UE il 13 febbraio e il voto del Parlamento Europeo, previsto per marzo o aprile. Si prevede che entri in vigore prima dell’estate e dovrebbe essere applicato nel 2026. Tempi lunghi per una innovazione che corre.

Già l’Europa ha poca capacità di innovazione in ambito informatico e il rischio di un ulteriore rallentamento dell’innovazione è concreto.  La necessità di tutela dei cittadini e una mancata comprensione delle dinamiche globali, rende l’Euorpa cieca rispetto ai rischi delle interazioni globali. La vicenda dei trattori dovrebbe aver insegnato all’Europa l’insensatezza di regole locali Europee stringenti senza la possibilità di controllare ciò che viene fatto fuori dai propri confini Europei. Stiamo a vedere.

Open Innovation: Le persone giuste al posto giusto

Quando rientro la sera dall’ufficio di Cernusco passo davanti a magazzino di Amazon a Segrate e non posso fare a meno di riflettere sulla crescita esponenziale che ha avuto. Da negozio di libri, alla vendita online, ai lettori per libri, al marketplace, logistica, servizi in cloud. Tutto merito di Jeff Bezos? In realtà no. La riflessione che faccio è che il successo di Amazon è stato guidato da Bezos, ma ciò che ha fatto la differenza è la capacità di esecuzione di ogni singolo dipendente. Per progettare e costruire la rete logistica di Amazon occorrono capacità fuori dal comune ma soprattutto sinergia e collaborazione a tutti i livelli. Ad esempio, la decisione di Amazon di espandersi nel cloud computing non fu solo una mossa strategica di Jeff Bezos, ma anche il risultato della cultura di innovazione e sperimentazione che permea l’intera azienda.

In alcune aziende il management delega ogni attività di implementazione della strategia ai propri riporti e così via, fino ad arrivare alle persone più operative, sovraccariche di lavoro e piene di responsabilità che non apparterrebbero al ruolo ricoperto. Questo è segno di manager con poca capacità decisionale e scarse competenze in materia. In altre aziende succede l’opposto, il management è scollato dai gruppi operativi al punto che le strategie aziendali sono note a una piccola enclave di manager. Questo è un segno di un management incapace di coinvolgere e delegare, forse anche di poca fiducia e confidenza delle proprie idee e delle capacità dei collaboratori. Se Amazon avesse avuto una cultura afferente a uno di questi due modelli non sarebbe diventata quello che è diventata. In Amazon, ogni dipendente, dal magazziniere all’ingegnere software, è una tessera cruciale nel mosaico del successo, ognuno con il proprio ruolo unico e indispensabile.

La differenza l’ha fatta proprio Bezos, perché la cultura aziendale di Amazon è quella trasmessa da Bezos ai sui riporti, ai riporti dei riporti e così via, fino a permeare in tutta l’azienda. Open Innovation è anche questo, una cultura aziendale in cui la comunicazione è trasparente, la strategia è condivisa e tutti sono focalizzati su un obiettivo comune. Questo passa necessariamente dalla persona giusta nel posto giusto, affinché ciascuno possieda le competenze necessarie per assumersi le responsabilità del proprio ruolo.

In definitiva, la storia di Amazon ci insegna che il vero motore del successo aziendale risiede nella sinergia tra una visione chiara e la capacità di ogni singolo individuo di contribuire a questa visione. Jeff Bezos ha saputo creare una cultura in cui l’innovazione e l’eccellenza non sono solo aspettative, ma realtà vissute quotidianamente. Questo ci porta a riflettere: quanto potrebbe essere diverso il panorama aziendale se ogni organizzazione adottasse un approccio simile? In un mondo in costante evoluzione, la lezione di Amazon è chiara: non è sufficiente avere le persone giuste; è fondamentale metterle nel posto giusto, fornendo loro gli strumenti e la fiducia per eccellere.

Questioni Etiche nell’Uso di GPT e Intelligenza Artificiale Generativa

In questo periodo il tema sull etica nell’uso di GPT è un tema ricorrente, mi sono interrogato e ho raccolto informazioni su quali sono le principali preoccupazioni e i principali di etica collegato a GPT o generartive-AI in senso più ampio.

Bias, preconcetti, e manipolazione dell’informazione

I modelli LLM apprendono da enormi quantità di dati testuali disponibili online, che possono includere linguaggi e opinioni prevenuti o discriminatori. Questo aspetto può influenzare il modello a generare risposte che riflettono o amplificano questi bias, perpetuando stereotipi o pregiudizi. Il modo in cui il modello viene addestrato e i dati che utilizza sono cruciali per determinare il tipo e l’entità del bias presente nelle sue risposte. Si conosce il tipo di sorgente utilizzato per l’apprendimento ma non i dettagli o i filtri che sono stati applicati all’origine.

A questo si aggiunger che la capacità di GPT di generare contenuti realistici e convincenti può essere sfruttata per creare e diffondere disinformazione. Compreso la generazione di notizie false, articoli ingannevoli, o commenti che possono essere utilizzati per scopi di propaganda, manipolazione dell’opinione pubblica, o per influenzare indebitamente il dibattito pubblico. Già è capitato con facebook in passato fosse usato con account finti per manipolare l’opinione pubblica, immaginiamo uno stuolo di agenti creati con LLM tutti addestrarti a fare da influencer per un prodotto commerciale e o un partito politico sui social. Personalmente credo che l’impatto sarebbe devastante.

Responsabilità sulla generazione dei contenuti

La guida autonoma di livello 4 e l’output dei sistemi LLM pongono interrogativi legali simili sulla responsabilità in scenari di autonomia quasi completa. Nel caso di un incidente causato da un veicolo autonomo di livello 4, di chi è legalmente responsabile? La normativa è in fase di studio almeno in Italia. Parimenti, quando GPT genera contenuti errati, la questione della responsabilità diventa focale, non a caso è sempre presente un disclaimer in pagina. In entrambi i casi, definire chi sia legalmente responsabile in assenza di un intervento umano diretto presenta sfide significative, riflettendo il bisogno di nuove regolamentazioni e approcci legali in un’era di crescente automazione.

Questo non è l’unico aspetto legato alla responsabilità sulla generazione dei contenuti. Gen-AI può generare (o meglio essere usato, ma volutamente non uso il verbo riflessivo) contenuti molto simili ad altri protetti da copyright, e può riesumare voci di personaggi famosi estinti riproponendo canzoni inedite. Chi è responsabile se gen-AI genera contenuti della proprietà intellettuale, magari anche in modo ignaro per l’utilizzatore, semplicemente perché il bias di addestramento conteneva documenti tutelati da copyright. Mentre chiudevo il testo mi sono posto anche la domanda, di chi è la proprietà intellettuale di un contenuti generato da gen-AI? Ci rifletterò nei prossimi giorni.

Conclusione

La sfida sta nel bilanciare la libertà di espressione con la necessità di contrastare la disinformazione. Personalmente utilizzo GPT quotidianamente come assistente personale in molteplici situazioni, soprattutto creazione di codice. Passo al setaccio tutto quello che genera e a volte scarto i contenuti generati, altre volte lo correggo. Credo che avere un’evidenza se un contenuto o un’interazione è umana o artificiale possa risolvere parzialmente il problema. Qualcosa di simile a quello che succede con i prodotti promozionali presentati durante le trasmissioni televisive.

Sostenibilità di blockchain e LLM

Nell’era della digitalizzazione, due tecnologie emergenti, i modelli di intelligenza artificiale come i modelli LLM e le blockchain Proof of Work (PoW), si trovano al centro di un cruciale dilemma etico legato alla sostenibilità e alla poca trasparenza sull’impronta di carbonio generata.

Quanto consumano i sistemi LLM

La quantità esatta di risorse di calcolo richieste per eseguire modelli LLM come GPT-4, un modello di intelligenza artificiale sviluppato da OpenAI, non è pubblicamente divulgata in dettaglio. Si possono fare alcune considerazioni generali sulla base delle informazioni disponibili sui modelli di apprendimento di grandi dimensioni, come GPT-4.

  1. Dimensione del Modello: GPT-4 è un modello di intelligenza artificiale molto grande, con una capacità di elaborazione di 175 miliardi di parametri. Questo implica che richiede una notevole quantità di potenza di calcolo per il training e l’esecuzione.
  2. Training del Modello: Il processo di training di modelli come GPT-4 richiede di solito array di GPU (Graphics Processing Units) o TPU (Tensor Processing Units) ad alte prestazioni. Queste unità sono necessarie per gestire enormi set di dati e complesse reti neurali. Il training di un modello di queste dimensioni può richiedere settimane o mesi su migliaia di GPU/TPU.
  3. Esecuzione e Inferenza: Una volta addestrato, il modello richiede ancora risorse significative per eseguire inferenze, cioè per rispondere a richieste o compiti specifici. L’esecuzione è generalmente meno intensiva rispetto al training, ma richiede comunque hardware di calcolo ad alte prestazioni, soprattutto per gestire molteplici richieste contemporaneamente.
  4. Ottimizzazione del Modello: OpenAI lavora costantemente per ottimizzare l’efficienza dei suoi modelli. Ciò significa che, anche se il modello è grande, gli sviluppatori cercano modi per ridurre il carico computazionale senza compromettere le prestazioni.
  5. Distribuzione su Cloud: GPT-4 è spesso eseguito su piattaforme cloud, che permettono una distribuzione scalabile e l’accesso a risorse di calcolo potenti e flessibili.

I dettagli specifici della potenza di calcolo richiesta da GPT-4 non sono pubblici ed è chiaro che il modello dipende da hardware di calcolo ad alte prestazioni sia per il suo training che per l’esecuzione.

Le specifiche tecniche esatte riguardanti l’hardware utilizzato per GPT-4 da OpenAI non sono state rilasciate pubblicamente. Il report tecnico si astiene dal specificare le dimensioni del modello, l’architettura o l’hardware utilizzato sia durante l’addestramento sia durante l’inferenza. Tuttavia, è stato affermato che il costo di addestramento di GPT-4 è stato superiore a 100 milioni di dollari​. (Wikipedia)

Per quanto riguarda le esigenze hardware per modelli di AI di grandi dimensioni come GPT-4, vi sono alcune indicazioni generali. GPT-4 è passato da un modello di linguaggio a un modello multimodale, il che implica una maggiore necessità di potenza di calcolo e moduli aggiuntivi per la codifica e la decodifica di video e audio. In termini di difficoltà, il video richiede la maggiore potenza di calcolo e complessità IP, seguito dall’audio. Questo ha portato a un aumento dell’uso di GPU e supporto periferico per la codifica e la decodifica IP, come i moduli VPU​. (Digi-electric Pro)

Per creare e mantenere l’enorme database di dati di analisi AI necessari per ChatGPT, OpenAI ha utilizzato circa 10.000 GPU Nvidia per la formazione correlata. Per supportare le applicazioni pratiche e soddisfare i requisiti dei server, OpenAI ha già utilizzato circa 25.000 GPU Nvidia e si prevede che questo numero aumenterà in futuro con l’aumento della domanda​​ (Digi-eletric Pro)

Quanto consuma la Blockchain

Anche le blockchain sono all’antitesi della sostenibilità. Le blockchain che utilizzano il meccanismo di consenso Proof of Work (PoW) sono tra le più energivore nell’ambito delle tecnologie blockchain. Ecco le principali aree in cui le blockchain PoW consumano energia:

  1. Mining: Nelle blockchain PoW, il processo di mining è la principale fonte di consumo energetico. I miner utilizzano hardware specializzato (come GPU o ASIC) per risolvere complessi problemi matematici al fine di validare nuove transazioni e creare nuovi blocchi. Questo processo richiede una grande quantità di potenza di calcolo e, di conseguenza, un significativo consumo di energia elettrica.
  2. Raffreddamento e Infrastruttura: Per mantenere l’hardware di mining in funzione continua e prevenire il surriscaldamento, sono necessari sistemi di raffreddamento efficienti. Questi sistemi di raffreddamento ulteriormente incrementano il consumo energetico. Inoltre, l’infrastruttura di supporto per il mining, come i data center, consuma energia aggiuntiva.
  3. Rete Globale: La natura decentralizzata delle blockchain PoW significa che il mining avviene in molte località in tutto il mondo. Questa vasta rete di miner aumenta ulteriormente il consumo complessivo di energia.
  4. Produzione Hardware: Sebbene non sia un consumo diretto di energia della blockchain, la produzione di hardware di mining richiede energia. Questo include la fabbricazione di GPU, ASIC e altri componenti necessari per il mining.

Secondo alcune stime, il consumo energetico annuale di Bitcoin è paragonabile a quello di interi paesi. Questo alto consumo è dovuto principalmente all’intensa attività di mining e alla natura sempre più competitiva del processo di mining, che richiede hardware sempre più potente e maggiori quantità di energia elettrica. (The New York Times)

Dilemma etico

L’adozione di tecnologie avanzate come i modelli di intelligenza artificiale Generative Pre-trained Transformer (GPT) e le blockchain Proof of Work (PoW) solleva un importante dilemma etico per le organizzazioni che perseguono obiettivi di sostenibilità. Da una parte, queste tecnologie offrono vantaggi significativi in termini di innovazione, efficienza e sicurezza; d’altra parte, il loro elevato consumo energetico e l’impatto ambientale associato pongono in questione l’allineamento con pratiche sostenibili e responsabili.

Un aspetto fondamentale del dilemma etico riguardante l’uso di tecnologie è la mancanza di trasparenza sul loro impatto in termini di emissioni di CO2. Le organizzazioni impegnate in pratiche etiche si orientano sempre più verso partner e fornitori che non solo adottano tecnologie innovative, ma che sono anche apertamente trasparenti riguardo al loro impatto ambientale. Questa tendenza riflette una crescente consapevolezza che la responsabilità ambientale va oltre la semplice riduzione del consumo energetico; richiede una comunicazione aperta e onesta sull’impronta di carbonio generata, permettendo alle aziende e ai consumatori di prendere decisioni informate e responsabili. In questo contesto, la trasparenza diventa un valore chiave, influenzando la reputazione e la credibilità delle aziende nell’era della sostenibilità.

Le organizzazioni si trovano così a bilanciare il desiderio di sfruttare queste potenti tecnologie con la necessità di adottare pratiche etiche e sostenibili, affrontando la sfida di integrare l’innovazione tecnologica con l’impegno per la riduzione dell’impronta di carbonio e la tutela dell’ambiente. Questo dilemma etico non solo evidenzia una tensione tra progresso tecnologico e responsabilità ambientale, ma stimola anche una riflessione critica sull’evoluzione responsabile delle tecnologie emergenti.

HTPC

I used this covid-19 quarantine to reinstall from scretch my HTPC base on Mythtv. I made the very first installation in 2008 and since than I watch TV only using Mythtv. Why? Because of it’s recording feature and the sound/image quality mainly in upscaling from low quality to full-hd and Nvidia card de-interlacing features.

Since than I added two DVBS2 cards, one for Astra and one for Hotbird and upgraded the DVBT cars to a dual DVBT2 card. Lately the boot time  raised a lot and I also wanted to upgrade to the new version of steam and plenty of other features. So this a small guide to build what from my point of view is one of the best media centre available today if  compared with smart TV including Android ones. Why?

  • You can install as many tuners as you wish, ie: one for recording, one for watching live tv, satellite, cable,…
  • You can choose the remote control you wish, I choose one with gyroscope pointer, rechargeable, illuminated keys  and full keyboard on the back, costs about €20
  • You can add touch capability to your old tv by adding a IR touch frame, I bought on that costs around 50€ on aliexpress for my 37” tv
  • You can use any gamepad for gaming you wish, also the once without cable, my choice was for two xbox controller

With this hardware the base installation was pretty simple, just Ubuntu minimal out of the box with proprietary “Nvidia” drivers and than this list of packages:

  • Mythtv: with all plugins to watch TV and have some multimedia features
  • Mysql: As database back-end for mythtv
  • Steam: for gaming
  • Chorme or Firefox: As a browser for Netflix, Prime, RaiPlay, MediasetPlay,….
  • Skype and Zoom: For conferencing with the family during Covid-1

Mythtv

After the installation I only had to recover the backup of the previous database, just because I didn’t want to reprogram everything. I also had to configure the DVB cards, this was somehow more tricky because the used all the same tuners and ad each boot the card numbers got mixed up. To avoid this I needed a hook in udev to intercept the driver installation and create unique links to the right devices. This is the script

Other software

With Steam everything works fine out of the box, using Vulcan even for non tested vulcan applications allowed me to install lot of games. Controller get identified correctly, no particular action to be taken. Skype, Chrome a Firefox just need a user to be configured and nothing else

Configurations

The main part has been done, now some configuration tunig that make the system much more usable and ‘smart TV’ like.

Poweron / poweroff

First is the power button doesn’t turn off the Media Center instead I just want to turn off the monitor. This allows an instant on/off. Ubuntu manges the power button through the Display Manager and in this setting you cannot run a custom command. So my choice was to intercept the ‘Power button’ via ACPI and add hoot that turns off/on the monitor or TV. The hook is pretty simple, just add this script in the /etc/… folder

When I power on I also want some tool to auto-start, so I added Mythvt, Steam, Skype, Firefox in kiosk mode

Remote control

Finally ome extr

ALTER USER ‘root’@’localhost’ IDENTIFIED WITH mysql_native_password

usermod -a -G mythtv htpc

usermod -a -G mythtv dialout

WP to LinkedIn Auto Publish Powered By : XYZScripts.com