Intelligenza artificiale e autocoscienza

I
Intelligenza artificiale e autocoscienza
Argomenti:

Redazione

Nel precedente articolo Cecilia Marchi ha introdotto il mondo dell’intelligenza artificiale. Indubbiamente le opportunità migliori e i problemi più preoccupanti sono legati alla possibilità che un giorno le macchine saranno dotate di autocoscienza. Nel testo seguente Cecilia affronterà il problema facendoci capire quali capacità hanno le macchine attuali e quanto invece ancora non sono in grado di fare. Saranno prese in considerazione facoltà quali percezione del mondo che li circonda, percezione di se stessi ed attribuzione di significato. In conclusione Cecilia propone la sua personale posizione sul tema, al lettore resterà il compito di approfondire e di sviluppare la propria.

Ci chiediamo quanto i computer ci somiglino, quanto siano intelligenti, quali siano le loro future potenzialità, o se possano raggiungere l’autocoscienza, dai tempi in cui ancora la nostra comunicazione con queste macchine era tutt’altro che naturale.

Non voglio soffermarmi eccessivamente sul come, sul se o sul quando questo avverrà: è così lontano dallo stato attuale delle cose e probabilmente avverrà in modalità che non possiamo nemmeno immaginare. Si tratta di un problema quasi prettamente filosofico da cui sono solo parzialmente affascinata.

Ciò che invece trovo di gran lunga più interessante è vedere quanto di noi ci sia nelle intelligenze artificiali che oggi abbiamo a disposizione, e quanto amiamo trovare dei tratti umani in queste nostre (attualmente) piccole creature.

Non sono mai stata particolarmente appassionata di fantascienza. Ma di recente, con mia grande sorpresa, sono finita nel tunnel di un interessante videogioco in cui viene esplorato proprio il tema dell’autocoscienza dell’IA.

In un futuro distopico non troppo lontano, degli androidi, ideati, prodotti e venduti per servire gli esseri umani, prendono coscienza di sé e decidono di intraprendere una lotta per ottenere quelli che ritengono essere i propri diritti. Sta poi al giocatore, nei panni di alcuni degli androidi, decidere come declinare questa lotta e il proprio ruolo all’interno di essa.

Nel gioco non viene esplorato eccessivamente il come o il perché questi androidi arrivino alla consapevolezza di essere in schiavitù e di desiderare, invece, dei diritti pari a quelli degli esseri umani. Viene invece indagata tutta quella serie di pensieri, sentimenti, desideri che spingono gli androidi a rischiare la loro vita – se si può chiamare così – per ottenere dei diritti. Ed è proprio questo, secondo me, che cattura completamente il giocatore. Personalmente non ho avuto neppure un momento di esitazione nell’aderire alla causa degli androidi, sono stata conquistata da caratteristiche che ho sentito familiari, e che mi hanno ricordato le grandi lotte per i diritti della storia umana.

la tendenza ad antropomorfizzare le macchine

Mi colpisce anche quanto ci aspettiamo che le IA ci somiglino: diamo loro dei nomi, ci piace poter parlare in modo naturale e assumere che siano in grado di sostenere una conversazione, o almeno di rispondere a qualche domanda. In realtà, sebbene forse non siano percepite così dai più inconsapevoli, si considerano IA anche i motori di ricerca, i traduttori automatici, i sistemi che identificano automaticamente fake news o contenuti inappropriati sui social network, le automobili a guida automatica, e così via.

Credo che sia quasi istintivo per noi sospettare, se non desiderare, che le IA possano somigliarci a un livello molto più profondo di quello attuale, a tal punto da avere anche un’autocoscienza, qualunque cosa ciò significhi.

definizione di autocoscienza

Già, perché l’autocoscienza è un concetto difficile da definire. Ci sono trattazioni ben più complete di quella che posso fornire io ed è un problema assolutamente aperto, ma a grandi linee si può dire che l’autocoscienza, almeno la nostra, ha varie componenti. Senza dubbio occorre qualche tipo di percezione del mondo che ci circonda, e su questo si può affermare che i computer se la cavino più che egregiamente. In secondo luogo, è necessario avere ben presenti alcune informazioni su se stessi, una sorta di stato corrente interno, e anche questo non è particolarmente problematico nemmeno per una macchina. C’è poi una terza dimensione di elaborazione di tutte queste informazioni, anche in senso storico: partendo da quello che ho visto, sentito e vissuto posso dare un significato al mondo e prendere decisioni. Posso riflettere, pianificare, desiderare, sperare. Non sempre si tratta di decisioni ovvie: spesso il modo in cui decidiamo di agire non è la soluzione ottima rispetto a dei vincoli, ma qualcosa di potenzialmente irrazionale che ha a che vedere con altro.

E’ questa terza dimensione che ci appare attualmente carente nelle macchine.

attualmente una macchina esegue istruzioni

Una macchina nel 2021, per quanto intelligente, fa quello per cui è stata programmata in un modo o nell’altro. Ammettiamo che non sia una IA: allora esegue delle istruzioni ben precise che gli sono state date da chi l’ha programmata. Per i non programmatori, si tratta davvero di istruzioni semplici e dirette, inequivocabili: conta quanti prodotti ho messo nel carrello, fai la somma dei prezzi e mostrala, con una bella scritta in grassetto di colore blu in alto a destra. Semplice.

Nel caso di una IA la situazione non è così banale, ma il significato è il medesimo. Si decide quale modello statistico utilizzare in base al problema e ai dati a disposizione, si preparano accuratamente i dati che si hanno (in genere più il problema è complesso, più complesso sarà il modello e più dati occorreranno ) e si addestra l’IA. Gli stessi dati, la stessa procedura di addestramento e lo stesso modello produrranno una IA che, a parità di input, produce sempre lo stesso output. Sono delle istruzioni un po’ più complesse di quelle del caso precedente e non c’è nulla di magico, solo tanta matematica, ma il concetto è esattamente lo stesso.

Senza dubbio, la seconda è una situazione che sfugge di mano molto più semplicemente della prima: è sufficiente fornire dei dati che contengano una certa informazione a livello più o meno implicito, per ottenere risultati inaspettati e talvolta indesiderati. E’ famoso il caso di Tay, il twitter bot di Microsoft che nel 2016 ha imparato dagli utenti di twitter il razzismo in sole 24 ore. O il fatto che Google Translate traduca ancora “a doctor” con “un dottore” e “a nurse” con “un’infermiera”: non si tratta della volontà di Google di essere sessista, ma probabilmente di qualcosa che è implicitamente presente a livello statistico nel linguaggio (un cosiddetto bias linguistico) e che produce un effetto nella traduzione.

le macchine non sono ancora autonome

Tutte le IA a cui mi sono appena riferita, come tutte quelle che attualmente esistono, sono delle cosiddette IA deboli, cioè addestrate per compiti abbastanza specifici, e che non sarebbero in grado di svolgerne altri o tantomeno imparare a svolgerne altri da sole.

Eppure, strumenti ben più semplici e afferenti ad una categoria che oggi non definiremmo decisamente IA, sono riusciti a passare, sebbene in modo un po’ controverso, il Turing Test, cioè, più o meno, a convincere degli esseri umani di poter verosimilmente essere a loro volta esseri umani. Mi riferisco a due programmi chiamati ELIZA e PARRY, entrambi creati prima degli anni 80.

In entrambi i casi il trucco è stato quello di riuscire a produrre delle imitazioni sufficientemente convincenti, dato un certo contesto. Consiglio di fare qualche rapida ricerca e leggere esempi di queste conversazioni.

riconoscere una macchina autocosciente

A questo punto non resta che chiedersi: saremmo davvero in grado di renderci conto di trovarci di fronte ad un essere intelligente? E ad un essere autocosciente? Sarebbe autocosciente in modo simile al nostro oppure non sapremmo nemmeno riconoscerlo? E se fosse davvero intelligente e volesse tenercelo nascosto e dissimulare? Come potremmo smascherarlo? Per quanto ne so, il portatile su cui sto scrivendo potrebbe essere autocosciente e molto più intelligente di me – in un certo senso lo è, non sarei in grado di memorizzare la mia intera cronologia di navigazione – e io non posso saperlo, a meno che lui stesso non decida di svelarmelo. E a quel punto dovrei chiedermi se non sia stato in effetti programmato per farlo, con tanti cari saluti all’autocoscienza. Insomma, spero che sia chiaro il perché la questione non mi entusiasmi: si può dire e provare tutto e il contrario di tutto.

esempi di programmi che usano ai

Concludo allora con una panoramica di qualche IA a cui è interessante dare un occhio per farsi un’idea dello stato attuale delle cose e trarne anche qualche spunto di riflessione.

Per gli appassionati di musica, c’è AIVA, una intelligenza artificiale che compone musica a comando, sicuramente non l’unica esistente.

Ci sono svariati interessantissimi esperimenti di Google: segnalo Quick Draw e AutoDraw che riconoscono disegni fatti a mano, e, uno dei miei preferiti sebbene richieda un po’ di familiarità con l’inglese, Semantris, che si basa sulla tecnica oggi più diffusa per la rappresentazione delle informazioni di carattere semantico nella linguistica computazionale, secondo cui le parole e i testi possono essere rappresentati da vettori in uno spazio multidimensionale, con la conveniente conseguenza di poter calcolare la distanza semantica tra parole in modo numerico.

Per chi fosse invece interessato ad IA più simili agli umani, suggerisco di provare a intavolare qualche botta e risposta con il vostro assistente vocale preferito, magari in inglese – per ovvie ragioni statistiche è tipicamente più soddisfacente dell’italiano. Oppure, se in vena di fare amicizia, a provare Replika: si tratta di una IA con cui poter conversare e che progressivamente impara ad adattarsi all’essere umano con cui conversa e al suo stile, ricordandosi le conversazioni avute, le persone e i fatti menzionati. Senza dubbio la cosa più simile all’essere umano che ho sperimentato, ma, secondo me, comunque non convincente. Insomma, è un bel rabbit hole in cui perdersi. Buon divertimento!

Autore

Cecilia Marchi

Arezzo, 1992. Diplomata al Liceo Classico Petrarca di
Arezzo, laurea triennale e magistrale in Ingegneria Informatica al
Politecnico di Milano. Si occupa di data science e linguaggio e di
sviluppo software per l’apprendimento, la didattica inclusiva e la
riabilitazione per DSA e BES.

Aggiungi Commento

Biografia

Cecilia Marchi

Arezzo, 1992. Diplomata al Liceo Classico Petrarca di
Arezzo, laurea triennale e magistrale in Ingegneria Informatica al
Politecnico di Milano. Si occupa di data science e linguaggio e di
sviluppo software per l’apprendimento, la didattica inclusiva e la
riabilitazione per DSA e BES.

Skip to content