SAREMO VERAMENTE CONTROLLATI DA TERMINATOR? ALTRA PICCOLA DIVAGAZIONE SULL’INTELLIGENZA ARTIFICIALE
Come possiamo fare per evitare i potenziali problemi dello sviluppo dell’intelligenza artificiale? Quali sono i comportamenti da tenere?
Vorrei riprendere quanto avevo raccontato qualche settimana fa a proposito dell’argomento “L’INTELLIGENZA ARTIFICIALE E’ PERICOLOSA?”.
Da quando abbiamo cominciato a sviluppare l’intelligenza artificiale è sempre stato immaginato anche un suo lato malvagio e autocosciente. Sono quindi nate due linee di pensiero, entrambe portate avanti da diversi pensatori che seguo e stimo, che sebbene partano da concetti simili arrivano a conclusioni opposte.
Entrambe presentano delle ragioni valide a sostegno della loro tesi anche se spesso sono ipotesi, dato che si sta nuotando nel mare del futuribile e non del conosciuto.
Ma sappiamo bene che trovare qualcuno che dà delle spiegazioni, anche se bislacche, a fenomeni sconosciuti è sempre qualcosa di ben accetto dal nostro cervello sempre alla ricerca di punti fermi.
Molto del “pericolo percepito” deriva dalla nostra idea che questo “cervello superpotente” possa essere montato in un robot. La cultura popolare, prima dei romanzi e poi cinematografica, non ha fatto gran che per renderli “amici” a partire dal mostro del dott.Frankenstein fino alle battaglie di Goldrake e Mazinga Z.
Leggendo “IL NOSTRO FUTURO” (PUOI ACQUISTARLO QUI) scritto da Alec Ross, (professore, imprenditore e consulente di innovazione di Barak Obama) ho trovato una spiegazione a tutto questo in una questione culturale che devo dire mi ha convinto.
L’autore si chiede perché in oriente ci sia molto più sviluppo di robot per l’aiuto alle persone rispetto alla produzione Occidentale (USA ed Europa) che invece li vede come strumenti per aumentare la produzione.
C’è forse una predisposizione culturale.
Nella religione scintoista, praticata dall’80% dei giapponesi, è presente una dottrina animista ovvero la credenza che anche le cose abbiano un’anima. Viene da sé quindi, che questo approccio permette di considerare i robot molto di più che un ammasso di metallo, plastica e circuiti stampati.
In occidente invece, c’è una divisione sostanziale tra cose ed esseri viventi e il solo pensiero che una COSA possa diventare assimilabile ad un essere vivente ci fa rabbrividire. E ancora di più ci fa rabbrividire l’idea che delle cose possano condividere le loro esperienze grazie alla creazione di “cloud” a cui i robot possono avere accesso. Proprio così, anche le intelligenze artificiali possono condividere le esperienze imparando da quello che hanno fatto gli altri: ovunque nel mondo e in ogni ambito.
Ora, pensate a che razza di superuomini potremmo essere se potessimo condividere tutte le esperienze e scegliere la migliore per risolvere il nostro comportamento. Faremmo VERAMENTE tesoro degli errori degli altri rendendoli nostri dato che tutte le esperienze, sia quelle positive sia quelle negative, sarebbero condivise.
Invece, ci dobbiamo affidare a dei manuali o alla guida di qualche mentore e quindi sperando di avere una botta di fortuna che ci permetta di trovare quelli giusti (SE VUOI SAPERE COME FARE PUOI LEGGERE QUESTO POST).
Emergono quindi ora due problemi
- C’è un senso di “antisportività”. Così non vale perchè lottiamo contro qualcosa (o dovrei dire qualcuno) che usa regole differenti (peccato che le regole le stiamo scrivendo noi)
- C’è un senso di perdita di controllo. Io posso controllare il MIO robot. E cosa succede se va a prendere esperienze di qualcuno che si comporta male?
Abbiamo già visto infatti che è già successo, anche se con forme molto semplici di BOT, che un software abbia cominciato ad avere comportamenti poco sociali o psicopatici poiché erano stati FORTEMENTE influenzati dagli input che gli erano stati dati dagli utenti della rete.
E poco importa se grazie all’intelligenza artificiale siamo riusciti a trovare nuove cure o ad identificare più rapidamente malattie specifiche. Noi tendiamo a dimenticare rapidamente le cose positive e focalizzarci su quelle negative.
Esiste di base una scarsa fiducia negli input umani che saranno fondamentali per decidere da che parte andrà il mondo nel momento della SINGOLARITA’.
Cosa è la singolarità?
E’ il momento in cui l’intelligenza artificiale raggiungerà e supererà quella umana.
Solo il fatto che vi sia una definizione significa che è un concetto probabile.
Secondo molti, gli investimenti e i progressi attuali hanno reso irreversibile il trend di sviluppo dell’AI. E’ quindi solo una questione di tempo prima che l’intelligenza artificiale complessiva superi quella umana. Solo una questione di tempo.
Altri invece pensano che la singolarità non si otterrà mail a causa dei limiti nella comprensione del funzionamento del nostro cervello che quindi non potrà essere copiato. Dato che i robot non pensano davvero ma semplicemente attingono da database esistenti per creare il proprio comportamento, non potranno quindi autonomamente superare i limiti di chi li ha costruiti.
Per questo i robot giocano bene a scacchi o vincono a giochi a premi di cultura generale. Semplicemente sono in grado di scegliere rapidamente tra milioni di opzioni basandosi su comportamenti predefiniti.
Per mettere un po’ di ordine quindi dovremmo partire dal solito “Perché” (dell’ importanza di conoscere il perché NE HO PARLATO IN QUESTO POST) per definire quali dovranno essere le basi per uno sviluppo sostenibile di queste nuove tecnologie.
Quale dovrà essere quindi l’obiettivo dell’intelligenza artificiale? Per me, dovrebbe essere un ausilio per l’uomo, così da potenziare le sue capacità, agli anziani di restare autosufficienti per maggior tempo, a chi ha un deficit di riuscire a fare una vita normale.
Ciò non toglie che vi saranno degli effetti collaterali. Alcuni lavori spariranno, SARA’ RICHIESTA UNA MAGGIORE SPECIALIZZAZIONE e una migliore capacità di adattamento a contesti continuamente mutevoli.
Ma finchè questo andrà in una direzione controllabile sarà tutto ok. Certo non possiamo pensare banalmente, come molti purtroppo fanno, che l’unico modo per l’umanità di battere l’IA super intelligente è quello di non crearla mai.
Dobbiamo invece pensare a come dare gli input corretti: a come fare in modo di comportarci bene e di insegnare a fare altrettanto. L’intelligenza artificiale è come un bimbo che sta crescendo rapidamente. E come con i bimbi dobbiamo fare in modo che crescano al meglio dando il buon esempio.
Sarà difficile, ma temo non ci siano altre scelte.