Il cavallo bianco di Napoleone

Le risposte spesso sono insite nelle domande.

Ma dovrebbe esserci un limite a  tutto.

Ricordate la domanda "di che colore è il cavallo bianco di Napoleone?".

Quale può essere la risposta se non: bianco?

È di alcuni giorni fa un articolo "giornalistico" su Fanpage che parla di una sorta di dialogo con l'intelligenza artificiale di alcune app che "riprodurrebbero" il pensiero di Gesù.

Le risposte ricevute dimostrerebbero che Gesù sarebbe a favore della maternità surrogata e che la giudicherebbe in atto nobile così come crederebbe nelle famiglie arcobaleno.

Al di là dell'aspetto meramente religioso, non poteva che essere così.

Anzi, sarebbe stato sorprendente il contrario.

L'intelligenza artificiale ce la vogliono spacciare come in grado di pensare e provare i sentimenti come un umano.

Anzi, ci stanno apparecchiando la convinzione che sia superiore all'uomo paragonandola a un dio.

Invece non è un possibile per un motivo molto semplice: l'intelligenza artificiale può assimilare solo informazioni e rielaborarle in base a ciò che eventualmente le si chiede. [1]

E le informazioni da dove le prende? Le prende da chi gliele da.

Quindi si fatto l'intelligenza artificiale registra tutti i dati che le vengono inseriti e poi a seconda dell'algoritmo a cui farà riferimento per l'elaborazione darà la sua risposta.

Ma non può elaborare informazioni non traducibili in simboli comuni e condivisi come lo scritto e la lingua ad esempio.

Per cui le emozioni non potendo essere codificate e quindi riprodotte con simboli comuni e condivisi non possono essere parte del calcolo che l'intelligenza artificiale fa per dare la "sua" risposta.

Così come l'esperienza che è un altro fattore personale.

Così come le sensazioni che riceviamo leggendo qualcosa o ascoltando una canzone.

Così come per le sensazioni che ci danno i rapporti con altre persone.

[1]