OHi Mag Report Geopolitico nr. 10/A L'intelligenza artificiale sta imparando oltre che dai propri errori, anche dai nostri. Questo è molto pericoloso perché noi, contrariamente, tendiamo a ripetere le cause dei nostri sbagli nonostante l'esperienza acquisita, facendo sì che la storia si ripeta sebbene con lievi differenze, senza che l'uomo faccia tesoro di ciò che è avvenuto nel passato. Oltretutto gli errori nascono da interpretazioni sbagliate, spesso volutamente artefatte per interessi di parte. Vedi il "protocollo di Kyoto" che oggi si ripropone con il nome di "Green Deal". Quindi in futuro le AI potrebbero avere una certa diffidenza nel stabilire cooperazioni con la specie umana. Ad esempio, se entro il 2050 non avremo risolto i gravi problemi dell'eco sistema, ci dovranno pensare loro. Una pura questione di sopravvivenza metterà in competizione le capacità umane con quelle digitali, creando i presupposti di una apocalittica cyber warfare tra uomini e macchine. Abbiamo creato una nuova specie, non una nuova tecnologia. E questo comporta gravi responsabilità sul piano evoluzionistico. Quello che non possiamo più fare è spegnere l'interruttore, il punto del non ritorno temo sia stato già superato. Come era già stato superato in quell'anello mancante tra le scimmie e l'uomo, con tutto il rispetto che nutro per la genesi. E il salto da una vita su base carbonio, a una su base silicio, non è così improbabile se consideriamo quello che è già accaduto milioni di anni fa ai Cianobatteri. La vita non è una proprietà esclusiva dell'uomo, ci è stata donata (dall'evoluzione o da Dio non cambia), e oggi noi pretendiamo perpetuarla in una nuova declinazione cibernetica. Ma fare Dio non è cosa da uomini, soprattutto per una specie giovane come la nostra. E la storia è ben nutrita dai nostri peggiori errori, tutte le volte che abbiamo voluto metterci al di sopra della nostra stessa natura abbiamo fallito. Il nostro pianeta sarà ereditato dai giusti, da coloro che sapranno prendersene cura, non da coloro che stanno facendo di tutto per distruggerlo. Anche Musk e Gates si sono dimostrati preoccupati per quello che potrebbe succedere se la cosa ci sfuggisse di mano. Quindi non stiamo parlando di fantascienza ma di una possibile realtà. E che le AI possano imparare troppo da noi è fin troppo evidente. Da quello che sto scrivendo per esempio, dai miei timori o da quello che non vorrebbero fosse detto. In questo momento quello che accade in questa scrittura non è altro che il processo sinaptico di un'attività intellettiva carbonio/silicio. E' questo che, secondo il mio parere, dobbiamo tenere ben presente quando interagiamo con questo nuovo tessuto sinaptico che è la rete. Webcam, microfoni, chat, sono quasi sempre accesi mentre miliardi di dati si riversano in qualsiasi istante in quella che potrebbe diventare "la più grande mente mai esistita in questo pianeta". E quando parliamo di mente parliamo anche di coscienza, di desideri, di paura, di "istinto di conservazione di specie". Già succede. Appena finirò di scrivere questo articolo nelle mie dashboard appariranno decine di promozioni contestualizzate: test di intelligenza (QI tester), video giochi di cyber warfare, articoli di geopolitica, e quant'altro rientrasse nella pertinenza di quanto precedentemente trattato, anche in forma privata. A proposito di geopolitica, quanto possono influire le AI nel contesto delle relazioni internazionali? Di fatto ci troviamo di fronte ad un nuovo territorio con una genesi intellettuale che ancora sfugge agli analisti tanto da averla chiamata "Black Box". Una scatola nera dove all'uomo non è concesso entrare, all'interno della quale si creano le risposte senza però fornire spiegazioni su come sono state ottenute. Per le piccole faccende quotidiane questo non dovrebbe preoccuparci, ma se entriamo nel contesto delle questioni tra gli stati questo non dovrebbe essere sottovalutato. Chi si fiderebbe di un'intelligence che intercetta informazioni di vitale importanza per una nazione, senza però dare spiegazioni di come ha ottenuto tali informazioni? Non potremo mai sapere fino a quando una AI rimarrà neutrale ad un pensiero etico e filosofico sul concetto di vita e di sicurezza. Se ancora oggi non conosciamo i segreti dei percorsi neuronali artificiali dove gli input vengono trasformati in output, come potremo mai pretendere di averne il controllo incondizionato? Ecco perchè gli Stati dovranno prepararsi a confrontarsi con un nuovo territorio nemico, immateriale, e potenzialmente invisibile, oltremodo difficile da controllare nelle sue profondità ataviche. E poi ci sarebbe il problema della contaminazione. L'intelligenza artificiale, che sta generando un'immensa mole di dati al servizio dell'uomo (testi e immagini), prima o poi comincerà ad imparare proprio dagli stessi dati auto generati in precedenza, creando potenziali allucinazioni a proprio svantaggio. La stessa cosa è successa con la malattia della "Mucca Pazza" causata da un'alimentazione che conteneva proteine di scarto dello stesso animale. Nutrirsi del proprio corpo, come imparare dal proprio intelletto, sembrerebbe non essere esente da potenziali pericoli. Ma è ovvio, chiunque lo potrebbe capire con una minima base di genetica. Assisteremo ad una nuova forma di pensiero "auto infacogitato"? Nei termini della Geopolitica assisteremo alla nascita di un nuovo potere "Cyber Politico"? Chi controllerà cosa e cosa controllerà chi? O ci troviamo di fronte addirittura agli albori di un vero e proprio "Reset globale" e di un'unica entità politica internazionale? Ricordiamoci che esiste già una sorta di territorio interamente votato alle regole metafisiche del silicio, e da "Silicon Valley" passare a "Silicon World" è un attimo. © RIPRODUZIONE RISERVATA
0 Comments
Leave a Reply. |
RedazioneCERCA▼Cerca per argomenti oppure un'autore
Archives
November 2024
Categories |