Intelligenza Artificiale: opportunità e pericoli nascosti

2001: Odissea nello spazio IA HAL 9000

Un fotogramma tratto da “2001: Odissea nello spazio” in cui appare la celebre IA “HAL 9000”.

L’IA o intelligenza artificiale è da tempo una delle cosiddette “buzzword” (termine in voga) del settore ICT. Google è stata indubbiamente il pioniere di quel settore, grazie all’esperienza maturata con l’ecosistema Android (assistente personale) e l’omonimo motore di ricerca, ma ben presto i più diretti competitor come AWS, Microsoft ed Alibaba (le compagnie cinesi focalizzate sull’IA non si riducono ovviamente alla sola compagnia di Jack Ma) hanno recuperato terreno lanciando altrettante soluzioni sulle proprie piattaforme cloud.

I campi d’applicazione più interessanti dell’IA sono il machine learning (ML) ed il deep learning (DL), due termini altrettanto popolari nel mondo ICT che, rispettivamente ed in sintesi, indicano una serie di tecnologie pensate per “aiutare” i computer a migliorare l’esecuzione di determinati compiti (mediante l’esperienza) ed apprendere in modo autonomo lo svolgimento di specifiche task (previo un adeguato “addestramento” tramite analisi di ingenti quantità di dati).

Leggendo le definizioni di ML e DL risulta evidente come l’essere umano stia cercando di rendere più simile a sé stesso i calcolatori elettronici, ispirandosi al modello esperienziale che contraddistingue da millenni l’uomo moderno (homo sapiens, circa 200 mila anni fa) ed ha permesso a quest’ultimo di espandere le proprie conoscenze e “conquistare” il mondo con la propria intelligenza.

Fino a dove è lecito spingersi con le IA? Il fortunato genere della fantascienza è costellato di ipotetici futuri in cui le “macchine” hanno preso il sopravvento (negli scenari più oscuri) o guadagnato uno status pari a quello di un normale essere umano (in quelli più ottimistici): sebbene l’intervista ad Eng Lim Goh (VP chief technology officer for high-performance computing and artificial intelligence presso Hewlett Packard Enterprise), di cui proporremo a breve le parti più significative, non sia in grado di rispondere con certezza ad ogni dubbio sollevato, offre sicuramente degli importanti spunti di riflessione circa le opportunità ed i pericoli nascosti dell’affascinante tecnologia. Buona lettura.

[Cosa ne pensi del timore che l’IA possa portare ad un taglio dei posti di lavoro]?

[Sul breve termine, l’effetto delle IA sarà quello di migliorare l’attività delle macchine ed il lavoro umano piuttosto che portare alla sostituzione di quest’ultimo. Tuttavia la forza lavoro, le economie e le scuole devono adattarsi rapidamente ai futuri cambiamenti.

Si, ci sarà una perdita di posti di lavoro ma allo stesso tempo nasceranno nuove tipologie di impiego. Comunque, abbiamo bisogno di migliorare le nostre competenze e specializzarci ulteriormente. […]

I tanto chiacchierati veicoli a guida autonoma sono un esempio interessante. In base a quanto affermato dalla SAE (Society of Automotive Engineers), esistono 5 livelli di autonomia. Attualmente le più avanzate macchine sono di livello 3, dove è ancora richiesta la presenza di un conducente umano. […] Solo il livello 5 è privo di conducente e non ci siamo ancora arrivati. Quando si parla di veicoli a guida autonoma gli umani restano quindi indispensabili […]. L’automazione di livello 5 prima o poi arriverà ma, idealmente, richiederà almeno un altro decennio – secondo quanto affermato dall’industria di riferimento.

Un altro esempio utile ma non completamente correlato è quello dell’impatto delle IA sui voli commerciali. Il pilota automatico è stato inventato 100 anni fa ed è presente nei voli commerciali da quasi 80, incrementando sensibilmente la loro sicurezza. Ma per varie ragioni, pilota automatico non è ancora sinonimo di aereo senza pilota perché la funzionalità è usata solo in quota di crociera o durante l’atterraggio.

[…] Reputo che si tratti di uno schema già visto. Per esempio, dai primi anni del 900 ad oggi, l’automazione ha portato ad una riduzione delle ore annuali di lavoro – da 3000 a circa 2000. Le economie globali ed i lavoratori si sono tuttavia adattati. Ho visto inoltre economie creative e produttive ridurre la settimana lavorativa a 4 giorni e mezzo, godendo in media di un maggiore numero di ferie].

Un punto di vista diffuso sull’IA è il pericolo che, in futuro, possa prendere il sopravvento. Qual è la tua opinione sulle potenzialità ed i rischi di una cosiddetta super intelligenza?

[La questione va analizzata sul breve termine, medio termine e lungo termine. Breve termine: al giorno d’oggi i sistemi IA sono capaci di svolgere adeguatamente una singola task – si parla quindi di intelligenza artificiale specifica. Andiamo oltre i comuni discorsi sull’intelligenza emotiva ed il quoziente d’intelligenza. Per avere una super intelligenza, le macchine dovrebbero prima avanzare ad una intelligenza generale artificiale, poi divenire senzienti, coscienti ed eventualmente consapevoli della propria esistenza (autoconsapevolezza). Quest’ultimo avanzamento è un traguardo molto ambizioso. Persino noi umani acquisiamo tale consapevolezza dopo circa 18 mesi di vita – l’età in cui riconosciamo la nostra faccia riflessa nello specchio e la tocchiamo – piuttosto che indicare lo specchio stesso. Sul breve termine, ribadisco, vedo l’IA come una tecnologia in grado di migliorare gli sforzi umani e non rimpiazzarli. Ed ecco come stanno le cose: il futuro, come si dice, non è stato ancora scritto. Quel che facciamo ora determina il futuro che sarà.

Medio termine: per essere efficaci, dobbiamo capire le differenze tra il nostro cervello e l’IA. Per quest’ultima, basiamoci sul modello machine learning ispirato al cervello umano, il network neurale artificiale. In termini strutturali, il cervello è connesso gerarchicamente mentre i network neurali sono monolitici. […] Il cervello è milioni di volte più complesso del più grande network neurale moderno. I nostri cervelli hanno molte più connessioni. In un network neurale una connessione è attualmente rappresentata da un singolo numero. […] È probabilmente per questo che noi umani necessitiamo di un minor numero d’esempi per apprendere qualcosa. Conseguentemente i nostri cervelli sono anche più efficienti da un punto di vista energetico. Quando compro una pizza ai miei ingegneri scherzo con loro dicendo che una singola fetta dovrebbe fornire energia al cervello per almeno tre ore. In termini operativi, i nostri cervelli lavorano in maniera sottrattiva mentre i network neurali in maniera additiva. […] 

Lungo termine: ma ipotizziamo che sul lungo termine le macchine possano raggiungere la super intelligenza. Quando arriveranno le macchine super intelligenti? Considerando la minore complessità rispetto al cervello umano, afferma Geoffrey Hinton, qualcosa di simile ad una super intelligenza potrebbe arrivare tra circa una trentina d’anni. Tornando alla mia precedente affermazione sulla maggiore complessità del cervello (un milione di volte rispetto ad un network neurale) e tenendo conto della legge di Moore, otteniamo una previsione simile.

La prossima domanda è: la sola complessità porterà all’autoconsapevolezza? Dal paper delle proprietà emergenti di Phil Anderson si apprende che ogni salto da un livello di complessità all’altro può produrre nuove proprietà. La Scienza, con materia a differenti livelli di complessità, rappresenta sicuramente un buon esempio.

Non puoi spiegare la fisiologia basandoti sulla solo biologia come non puoi spiegare completamente spiegare la biologia basandoti sulla chimica, o spiegare quest’ultima con la sola fisica. Con l’incremento della complessità generale, la super intelligenza potrebbe allora emergere come un’ancora inspiegabile funzione della tecnologia sottostante. Grazie alle proprietà emergenti, penso che ci sia la possibilità che le macchine acquisiscano l’autoconsapevolezza.

Diciamo allora che le macchine acquisiscano ad un certo punto la super intelligenza. Dovremmo preoccuparci? Assumeranno un atteggiamento ostile nei confronti degli umani? Questa è sicuramente una delle possibilità suggerita dai più noti intellettuali.

C’è anche un’altra possibilità. Io la chiamo combined immortal alien effect. Se tu fossi un computer autoconsapevole, saresti un alieno nel senso che impareresti in modo differente dagli umani; non otterresti l’autoconsapevolezza come funzione della biologia umana ma piuttosto attraverso un auto apprendimento crescente. Saresti inoltre funzionalmente immortale. […] Quindi, ottimisticamente, c’è la possibilità che tale essere immortale, non temendo per la propria “vita”, adotti un atteggiamento benevolo nei confronti degli umani – piuttosto che ostile].

Fonte: 1 (intervista integrale, inglese).