di Giorgio Luca

Ad oggi, l’AI ha superato l’intelligenza umana in alcune aree specializzate, come il riconoscimento di modelli utilizzando la tecnologia a raggi X, la guida autonoma e i giochi da tavolo strategici (Deep Blue di IBM negli scacchi e AlphaGo di Google nel Go). Questo tipo di intelligenza è spesso definito “AI debole” perché mira a studiare e risolvere problemi specifici. Al contrario, gli esseri umani possono applicare la loro intelligenza a un’ampia gamma di campi e la loro intelligenza viene definita “intelligenza generale”.

Mentre alcuni studiosi prevedono che una “AI generale” in grado di imitare completamente l’intelligenza umana potrebbe essere sviluppata già nel 2029, la stima media degli esperti è tra il 2040 e il 2050.

In ogni caso, se ciò accadrà, con l’aiuto dei progressi tecnologici e delle macchine intelligenti, è altamente probabile che emerga una superintelligenza che supererà l’intelligenza umana.

Supponendo che l’attuale sistema economico e sociale continui, l’emergere dell’intelligenza artificiale generale e della superintelligenza potrebbe portare a due scenari.

Il primo è la fusione di macchine ed esseri umani e la capacità degli esseri umani di migliorare le proprie capacità fisiche e mentali attraverso progressi tecnologici, non biologici. Il secondo scenario è che le entità create dall’AI si svilupperanno separatamente dagli esseri umani e avranno obiettivi e comportamenti propri.

Scenario n. 1: un’integrazione tra essere umano ed AI

Se i dirigenti non riconoscono i pericoli e non stabiliscono livelli uguali di accesso a queste tecnologie, uno scenario in cui gli esseri umani sono in grado di auto-realizzarsi attraverso le macchine aumenterà notevolmente la disuguaglianza umana. Infatti, se l’intelligenza è legata all’accessibilità economica, le enormi disparità tra i ricchi “più intelligenti” e quelli che non lo sono lasceranno la maggior parte della popolazione in una posizione arretrata. Per coloro che dispongono dei fondi necessari, il potere d’acquisto sarà molto elevato, creando una competizione con altre persone ricche. Ciò è ancora più evidente in un’economia in cui la ricchezza è basata sul reddito. Chi non ha i mezzi finanziari necessari non potrà permettersi queste spese e dovrà affidarsi alla tecnologia disponibile pubblicamente. Il rapido aumento dell’innovazione tecnologica aumenterà quindi il divario tra le tecnologie meglio sviluppate e quelle generalmente condivise.

Esistono interessanti parallelismi nel confronto tra i progressi della tecnologia umana e il settore sanitario (tecnologia intesa come cura piuttosto che come miglioramento del corpo umano).

In diversi Paesi sono stati scelti modelli significativamente diversi per fornire l’accesso all’assistenza sanitaria: alcuni lo considerano un diritto umano fondamentale, mentre altri lo collegano alla capacità di pagare. Negli Stati Uniti, ad esempio, il divario di aspettativa di vita tra ricchi e poveri è aumentato negli ultimi anni, in parte a causa delle disuguaglianze nell’accesso all’assistenza sanitaria e di tecnologie sempre più costose.

Il divario è ancora più netto se si confronta l’aspettativa di vita tra Paesi sviluppati e Paesi in via di sviluppo (i primi sono circa il 70% più alti dei secondi).

Si può ipotizzare che le diverse società possano fare scelte diverse per quanto riguarda l’accesso alle tecnologie per migliorare la salute umana, proprio come avviene per l’assistenza sanitaria.

Scenario n. 2: un’AI riconosciuta come entità distinta

In questo scenario, si analizzano entità con intelligenza artificiale sviluppate separatamente dagli esseri umani. Una delle caratteristiche principali di queste entità dotate di intelligenza sufficiente è che agiscono perseguendo obiettivi intermedi, o obiettivi definiti dai loro bisogni fondamentali, per raggiungere un obiettivo finale. Gli obiettivi intermedi includono l’autoconservazione, l’autosviluppo e l’accumulo di risorse, che possono consentire a ciascuna entità di raggiungere il proprio obiettivo finale più facilmente e più velocemente.

Un punto di vista interessante riguarda l’esame delle possibili conseguenze dell’assenza di diritti di proprietà da parte degli esseri umani sulle AI o sugli esseri superintelligenti.

Per spiegare le conseguenze economiche di un tale sistema, si possono confrontare due tipi di soggetti: uno umano, l’altro dotato di intelligenza artificiale, entrambi condizionati dal progresso tecnologico. La teoria malthusiana si basa sul concetto che sopravvivenza e riproduzione sono strettamente correlate alla presenza di risorse limitate ovvero scarse ed esauribili.

Nella prima fase, gli esseri umani forniscono i fattori di lavoro e la tecnologia di produzione produce beni di consumo. Le tecnologie di consumo/riproduzione trasformano poi questi beni di consumo in beni di sopravvivenza e riproduzione per gli esseri umani, creando così un’offerta di lavoro.

Il fattore umano associato alla fase di produzione sta rapidamente diminuendo a causa della manodopera fornita da entità AI che producono in modo più efficiente degli esseri umani.

In termini di consumo/riproduzione, la tecnologia umana utilizzata per la trasformazione di beni di consumo come cibo e abitazioni per i futuri esseri umani subisce un cambiamento tecnologico relativamente ridotto. Al contrario, le tecnologie utilizzate dagli attori dotati di AI per trasformare beni di consumo come l’energia, il silicio e l’alluminio per la prossima generazione stanno facendo progressi esponenziali.

Confrontando queste due dinamiche, è chiaro che l’umanità è condannata se non si adottano misure per prevenire questo fenomeno.

Più astrattamente, possiamo immaginare un’entità dotata di intelligenza artificiale in grado di effettuare transazioni economiche (ad esempio, negoziazione e regolamento di titoli finanziari). L’umanità beneficerebbe inizialmente dell’alta produttività e degli enormi profitti che si potrebbero ottenere. Inoltre, gli elementi scarsi ed essenziali per la riproduzione e lo sviluppo dell’AI. (ad esempio la manodopera umana qualificata e la proprietà intellettuale della programmazione) produrrebbero profitti elevati. Nel corso del tempo, le superiori tecnologie di produzione e consumo delle risorse dell’AI. porteranno alla proliferazione dell’AI. Man mano che l’AI diventa più efficiente, si scatenerà una feroce concorrenza per tutti gli elementi scarsi ed esauribili (come la terra e l’energia), facendo salire il prezzo di questi elementi e rendendoli sempre più inaccessibili alle persone con un reddito limitato.

Gli ingegneri propongono vari scenari distopici in cui gli esseri umani possono sopravvivere ancora per un po’ (ad esempio, assumendo farmaci per ridurre il fabbisogno di risorse energetiche). Per evitare tali conseguenze, potrebbe essere necessario rallentare o addirittura fermare il progresso tecnologico quando raggiunge un certo livello. In realtà, questo è difficile da realizzare, poiché il risultato desiderato può essere ottenuto intervenendo molto prima della nascita di un’intelligenza artificiale generale (non si può escludere che tale creazione possa avvenire segretamente per iniziativa di un singolo individuo dotato delle necessarie capacità).

Se non è possibile controllare il progresso dell’AI, gli esseri umani devono creare meccanismi per assicurare il loro habitat e acquisire risorse ed elementi scarsi in modo da garantirne il consumo senza esporsi all’aumento dei prezzi (una sorta di “riserva umana”). Il rischio potenziale è che questi individui tendano a vendere questi accumuli (gli umani possono essere meno “pazienti” delle risorse dell’AI, e le risorse dell’AI sono disposte a pagare prezzi più alti per questi elementi a causa dei maggiori rendimenti).

1.8.1 I rischi dell’Intelligenza Artificiale

Oggi l’intelligenza artificiale sta accelerando la sua evoluzione. La tendenza delle società a muoversi verso un’economia meno orientata al lavoro “intensivo” (inteso come lavoro duro e faticoso) è da tempo oggetto di ricerca e analisi per garantire che non porti all’impoverimento della popolazione.

Oltre alle questioni sociali, esistono anche questioni etiche relative allo sviluppo e all’evoluzione dell’AI e delle nuove tecnologie. Questi interrogativi riguardano il “potere algoritmico” e i big data e se questi determineranno la superiorità del cervello della macchina rispetto a quello umano. Anche se le preoccupazioni (alimentate online da celebrità come Stephen Hawking ed Elon Musk) possono sembrare estreme, sottovalutare l’impatto dell’AI può essere un grave rischio.

Il fisico Stephen Hawking è stato il primo personaggio di spicco a mettere in guardia sui rischi dell’AI. Sebbene vi sia un grande potenziale per nuovi strumenti che aiutino a riparare i danni ambientali, a trovare nuove cure e a risolvere gravi crisi come quella alimentare ed economica, milioni di posti di lavoro potrebbero essere distrutti, le economie e le società devastate.

L’AI potrebbe essere il peggiore evento nella storia della nostra civiltà, creando pericoli come potenti armi automatizzate, armi nucleari e armi biologiche, e fornendo nuovi modi a pochi individui e organizzazioni di opprimere e controllare un gran numero di persone e cose. Per evitare che questi rischi potenziali si concretizzino e diventino realtà, dobbiamo essere pronti a gestirli.

È davvero sorprendente che l’ultimo avvertimento provenga da una persona come Elon Musk. L’avvertimento riguarda in particolare il rischio di guerre indotte da computer e di disastri occupazionali causati da decisioni basate esclusivamente su processi di AI. Queste operazioni di AI sono l’unico pilastro veramente dominante nell’economia del futuro, dove migliaia, forse milioni, di posti di lavoro ancora oggi gestiti dall’uomo potrebbero essere trasferiti alle macchine.

Intelligenza Artificiale decentralizzata: una possibile risposta ai problemi etici

La comunità scientifica internazionale sta lavorando alla creazione di un’intelligenza artificiale, comunemente definita superintelligenza (la ricerca in questo settore è finalizzata alla creazione di un’intelligenza artificiale in grado di imitare perfettamente l’intelligenza umana, cioè un’intelligenza umana). Tuttavia, queste domande rimangono senza risposta, dato che la maggior parte della ricerca oggi è portata avanti da un piccolo numero di aziende con enormi risorse economiche e competenze, impegnate a creare progetti innovativi a livello internazionale.

Secondo molti ricercatori e scienziati, decentralizzare l’AI e permettere che sia progettata, sviluppata e controllata da grandi reti internazionali attraverso la programmazione open source è l’approccio meno rischioso alla creazione della superintelligenza e alla democratizzazione dell’accesso all’AI e non è solo una questione etica e morale, ma contribuisce anche a ridurre i potenziali rischi di monopolio e i problemi di sicurezza.


–fine–