Intelligenza artificiale: Terminator e Skynet stanno per arrivare?

Scritto da il 7 Agosto 2024

Sono molte le domande sul futuro  delle AI moderne, in particolare se esse saranno autocoscienti e potranno ribellarsi?

 

Foto di Thierry K su Unsplash

 

Tecnologie – Quando si parla di intelligenza artificiale (AI), è difficile non pensare subito a “Terminator” e al temibile Skynet. Per chi non avesse familiarità con il film, “Terminator” è un film di fantascienza del 1984 diretto da James Cameron.

La trama ruota attorno a un futuro distopico in cui le macchine, controllate da un’intelligenza artificiale chiamata Skynet, si ribellano contro l’umanità, scatenando una guerra globale. Skynet, una rete di supercomputer, diventa autocosciente e decide di eliminare l’umanità per proteggere se stessa.

Da qui, invia un cyborg assassino, il Terminator, indietro nel tempo per uccidere la madre del futuro leader della resistenza umana.

 

Realtà, finzione e futuro 

Al giorno d’oggi, la realtà dell’intelligenza artificiale è molto diversa da quella dipinta nel film. Le AI moderne, come GPT-4, sono avanzate ma ancora lontane dall’autocoscienza e dalla capacità di ribellarsi. Le attuali AI sono strumenti potenti per l’elaborazione del linguaggio naturale, il riconoscimento delle immagini, la guida autonoma e molto altro. Tuttavia, queste tecnologie operano sotto la supervisione umana e sono progettate per specifici compiti, senza alcuna volontà propria o desiderio di dominare il mondo.

Oltre a GPT-4, ci sono altre AI avanzate sviluppate da grandi aziende tecnologiche. Ad esempio, Facebook ha sviluppato LLaMA3, una potente AI progettata per migliorare l’interazione e la personalizzazione sui social media, nonché per riconoscere e filtrare contenuti inappropriati. Google, d’altra parte, ha creato Gemini, un’intelligenza artificiale avanzata utilizzata per migliorare i risultati di ricerca, tradurre lingue, e riconoscere immagini tramite Google Lens. Queste AI, sebbene sofisticate e in grado di eseguire compiti complessi, sono progettate per migliorare i servizi e l’efficienza, non per prendere decisioni autonome senza controllo umano.

 

I Rischi di queste tecnologie 

Nonostante i numerosi benefici, l’AI può avere un impatto negativo sulla nostra vita quotidiana. Uno dei principali timori riguarda l’uso dell’AI in contesti ad alto rischio.

Ad esempio, nei contesti militari, l’AI viene già utilizzata in sistemi bellici avanzati. Alcuni esempi includono droni autonomi e sistemi d’arma automatizzati. Questi dispositivi possono prendere decisioni letali senza intervento umano, sollevando seri problemi etici e di sicurezza. L’uso di AI in queste situazioni pone questioni cruciali sulla responsabilità e sulla moralità delle decisioni prese da macchine senza empatia.

Inoltre, l’AI può essere sfruttata per la sorveglianza di massa, violando la privacy individuale. Tecnologie avanzate di riconoscimento facciale e di tracciamento possono essere utilizzate dai governi o da altre entità per monitorare i movimenti e le attività delle persone, spesso senza il loro consenso o consapevolezza. Questo tipo di sorveglianza può portare a un controllo sociale pervasivo e a violazioni dei diritti umani.

Un altro utilizzo preoccupante dell’AI è nella creazione di deepfake – ne abbiamo parlato in un precedente articolo –  video manipolati in modo realistico. Questi video possono essere usati per diffondere disinformazione, ricattare individui o danneggiare reputazioni. La capacità di creare contenuti falsi così realistici mette in discussione la nostra capacità di distinguere tra verità e finzione, con potenziali gravi conseguenze per la società e la democrazia.

 

Misure Attuali per Mitigare i Rischi dell’AI nell’Ambito Militare

Per mitigare i rischi associati all’uso dell’AI in contesti militari, diverse misure sono state adottate a livello internazionale e nazionale. Una delle principali iniziative è la promozione di accordi e trattati internazionali che stabiliscono linee guida etiche e regolamentazioni specifiche per l’uso di armi autonome. Ad esempio, la Convenzione delle Nazioni Unite sulle Armi Convenzionali (CCW) ha istituito gruppi di esperti governativi per discutere l’implementazione di limiti sull’uso delle armi letali autonome.

A livello nazionale, molti paesi stanno sviluppando e implementando politiche per garantire che l’uso dell’AI nei sistemi militari sia conforme alle leggi internazionali umanitarie. Gli Stati Uniti, ad esempio, hanno stabilito direttive attraverso il Dipartimento della Difesa, come la direttiva 3000.09, che impone che le decisioni letali in combattimento devono essere prese con un appropriato livello di giudizio umano.

Inoltre, le aziende tecnologiche coinvolte nello sviluppo di AI stanno adottando codici etici e linee guida per evitare che le loro tecnologie vengano utilizzate in modi che potrebbero violare i diritti umani. Molte di queste aziende collaborano con organizzazioni internazionali e istituti di ricerca per sviluppare standard di sicurezza e procedure di valutazione del rischio.

Infine, la ricerca e lo sviluppo di tecnologie di AI includono sempre più spesso meccanismi di trasparenza e di spiegabilità, che consentono una maggiore comprensione e controllo sui processi decisionali delle AI autonome. Questo approccio facilita la supervisione umana e permette di intervenire tempestivamente in caso di comportamenti inaspettati o non etici da parte dei sistemi di AI.

Queste misure rappresentano passi importanti verso la gestione sicura ed etica dell’AI nei contesti militari, riducendo il rischio di impatti negativi e promuovendo l’uso responsabile di queste tecnologie avanzate.

 

Futuro dell’AI e Accessibilità Open Source

Guardando al futuro, l’AI è destinata a diventare sempre più integrata nelle nostre vite. L’avvento di versioni open source di tecnologie AI, come GPT-3 e GPT-4, rende questi potenti strumenti accessibili a un pubblico più vasto. Oltre a queste, altre AI open source come Facebook LLaMA3 e Google Gemini stanno democratizzando l’accesso alla tecnologia, permettendo a più persone di innovare e creare applicazioni utili. Queste piattaforme offrono enormi potenzialità per la ricerca, lo sviluppo di applicazioni personalizzate e l’educazione.

Tuttavia, l’accessibilità porta anche con sé rischi, poiché persone con intenzioni malevole possono sfruttare queste tecnologie per scopi dannosi. Ad esempio, possono essere utilizzate per creare deepfake, diffondere disinformazione o sviluppare strumenti di hacking avanzati. La possibilità che queste tecnologie cadano nelle mani sbagliate solleva preoccupazioni significative riguardo alla sicurezza e alla privacy.

In conclusione, mentre l’AI ha il potenziale per migliorare significativamente la nostra vita, è essenziale procedere con cautela. La supervisione e la regolamentazione sono fondamentali per assicurare che l’AI venga utilizzata in modo etico e sicuro. Mentre Terminator e Skynet rimangono nel regno della fantascienza, le sfide reali dell’AI richiedono una riflessione attenta e un impegno costante per garantire che il progresso tecnologico vada di pari passo con la responsabilità sociale.

 

 

Marcello Scacchetti, esperto di sicurezza informatica e amministratore delegato di Bitzen Studio

Marcello Scacchetti è un esperto di  sicurezza informatica con una carriera iniziata negli anni ’90. Specializzato in ethical hacking e sistemi Linux complessi, ha collaborato a livello internazionale per la digitalizzazione di aziende di alto profilo.

Attualmente è amministratore delegato di Bitzen Studio, dove fornisce consulenze e leadership nel settore tecnologico, nel marketing e nella comunicazione.

 

 


Opinione dei lettori

Commenta

La tua email non sarà pubblica. I campi richiesti sono contrassegnati con *



Traccia corrente

Titolo

Artista

Background