Tavola-disegno-5-copia-8@8x-100-scaled
Tavola-disegno-5-copia-8@8x-100-scaled
previous arrow
next arrow

Tavola-disegno-5-copia-8@8x-100-scaled
Tavola-disegno-5-copia-8@8x-100-scaled
previous arrow
next arrow

Tavola-disegno-5-copia-8@8x-100-scaled
Tavola-disegno-5-copia-8@8x-100-scaled
previous arrow
next arrow

Ma l’Intelligenza Artificiale c’è o ci fa?

da | 11 Apr, 24 | Scienze Umane |

Chiediamoci se la cosiddetta “intelligenza artificiale” sia tale oppure lo sembri solo

Il dilemma

Una volta il “calcolatore” (diverso dalla “calcolatrice” da tavolo) veniva chiamato “cervello elettronico”, assimilando l’hardware al cervello ed il software alla mente.
Poi, con i PC ed i centri di elaborazione dati (CED), il computer è stato soprattutto utile al calcolo, alla scrittura ed alla gestione documentale, amministrativa e industriale.

Infine Internet è diventata il mezzo di informazione e comunicazione planetario per l’umanità.

Nel frattempo, sull’onda della legge di Moore per la crescita della potenza di elaborazione e memorizzazione, sono nate tante applicazioni e servizi digitali utili, a compendio e sostitutivi dell’intelligenza umana, personale e collettiva, fino all’attuale esplosione della “intelligenza artificiale”, come un ritorno al futuro del “cervello elettronico”.

Ma fin dalla nascita del paradigma “intelligenza artificiale” ci siamo chiesti se questa sia tale oppure sembri solo tale: è una questione filosofica, tra essenze (ontologia) ed apparenze (fenomenologia), e psicologica, tra cognitivismo e comportamentismo, che riguarda anche l’intelligenza naturale, considerando che non abbiamo ancora un modello convincente della mente, ma solo indizi sperimentali, per lo più desunti da difetti, malattie o manipolazioni cerebrali.

Di fatto tale dilemma si è tradotto in due approcci tecnico/scientifici concorrenti, quello simbolico/logico/computazionale della Macchina di Turing e dell’architettura Von Neumann invece di quello subsimbolico/statistico/cibernetico della Robotica e delle Reti Neurali Artificiali, e nella stima per il “Test di Turing” rispetto a alla “Stanza Cinese di Searle”.
(v. Appendice)

Oggi il successo dei nuovi strumenti e metodi di trattamento del linguaggio naturale (NLP), basati sui Large Language Models (LLM) e la loro elaborazione statistica con reti neurali artificiali, sta provocando un interesse spasmodico, oltre che dagli addetti, per l’intelligenza artificiale, negli anni scorsi rimasta sottotraccia con alterne vicende, ed ha stimolato la pubblicazione di articoli e saggi che, indipendentemente dalla moda e pubblicità, ne criticano la natura sotto l’aspetto storico, filosofico, antropologico e sociale, oltre che tecnico-scientifico.

La scorciatoia

Tra questi “La scorciatoia – Come le macchine sono diventate intelligenti senza pensare in modo umano” di Nello Cristianini, il Mulino Editore, che spiega come siamo riusciti ad ottenere cotanti risultati sfruttando delle scorciatoie intellettuali:

  1. Per creare macchine intelligenti abbiamo prima cercato di riprodurre il ragionamento logico, simbolico e formale, come quello matematico, ed a farle ragionare con la grammatica per il linguaggio. Si è provato per decenni, con risultati interessanti ma effimeri, come i Sistemi Esperti. Invece è bastato accontentarsi di statistiche che consentano previsioni adeguate come quelle per raccomandare libri senza comprendere né il loro contenuto né le personalità dei lettori.
  2. Per fare ciò si potevano insegnare le statistiche alle macchine con schiere di addetti, ma è stato meglio farle riciclare dati esistenti, come quelli che depositiamo spontaneamente nel Web, nelle Reti Sociali, ecc..
  3. E per sapere quello che vogliamo, invece di chiedercelo esplicitamente, le macchine l’hanno imparato osservando sistematicamente le nostre scelte.

Dovremmo quindi tollerare tali sistemi artificiali intelligenti, così come facciamo per animali come le cavallette o le lumache, magari considerandoli agenti “alieni”, distinti da noi e dalla natura, ma con una loro personalità e loro obiettivi: ad esempio un’entità YouTube con i suoi obiettivi di audience ed i metodi e le informazioni necessari a perseguirli.

“Tuttavia se storicamente abbiamo sentito l’esigenza di spiegazioni e comprensione del mondo, per poterlo predire e controllare con le giuste conoscenze, cosa accadrebbe con delle macchine che ci aiutassero a predire e controllare il mondo, senza bisogno di comprensione? Quale sarebbe il ruolo delle teorie e della conoscenza scientifica, in questo caso? Sarebbe solo un bisogno estetico della nostra specie, o avrebbe un valore di per sé?”

(sommario di un’intervista all’autore di Viola Schiaffonati in Mondo Digitale, dicembre 2023)

Macchine ingannevoli

Ciò che mi preme mostrare è che lo sviluppo dell’IA fino a oggi non è andato tanto nella direzione dell’emulazione o del superamento dell’intelligenza umana, quanto verso lo sviluppo di sistemi in grado di convincere noi umani che le macchine sono intelligenti”.

Estratto dal saggio “Macchine ingannevoli – comunicazione, tecnologia, intelligenza artificiale” di Simone Natale, Einaudi Editore, che tratta del nostro ruolo, umano e sociale, nel considerare l’intelligenza artificiale e la tecnologia in generale, a partire dall’animismo in Natura fino gli interlocutori automatici intelligenti (ChatterBOT), dallo storico Eliza ai recenti  ChatGPTReplika, reinterpretando il Test/Gioco di Turing alla luce del rilevante riflesso del soggetto sull’oggetto dell’interazione, quasi vi fosse un nostro transfert sulla macchina (Presentazione a TEDxPolitecnicodiMilanoU).

Per altro fin dalla proposta del Test di Turing, una sorta di gioco dell’impostore, l’intelligenza artificiale ha stimolato la nostra tendenza a proiettare intelligenza e umanità su macchine in grado di comunicare, anche in assenza di un’autentica capacità di pensiero o empatia; infatti uno dei difetti dell’essere umano è la sua vulnerabilità ai giochi dell’illusione e dell’inganno.
Quindi l’interazione con macchine capaci di comunicare efficacemente, come gli odierni assistenti vocali, ChatBOT e BOT sui social media, può approfittare di questa vulnerabilità, facendoci proiettare su tali strumenti le stesse convenzioni e dinamiche delle interazioni con interlocutori in carne e ossa.

Nella nostra vita quotidiana siamo ancora in grado, perlomeno nella maggior parte dei casi, di distinguere tra umani e macchine: chi usa assistenti vocali come Siri o Alexa, ad esempio, sa benissimo di stare parlando con un software. Ma questo non vuol dire che la capacità di mimesi di queste tecnologie non abbia delle conseguenze importanti sul modo in cui interagiamo con esse. Ad esempio, il fatto che Alexa ci parli con una voce che sembra umana, e che ha una precisa caratterizzazione di genere, ci spinge a umanizzare queste tecnologie e a riprodurre stereotipi e rappresentazioni che sono tipici del nostro contesto sociale. Queste forme di inganno sono “banali” perché sono nascoste nelle pieghe del nostro vivere quotidiano, al punto che non ce ne preoccupiamo e non le consideriamo tali; eppure hanno un ruolo centrale nel successo e nell’impatto di queste tecnologie, come dimostrano gli sforzi fatti da aziende come Amazon o Apple di creare voci artificiali sempre più credibili e modalità di conversazione più verosimili, pur con tutti i limiti che questi sistemi ancora hanno.” (da un’intervista all’autore di Luca Delvecchio al Sole 24 Ore 19/02/2023)

Questo rovescia il dibattito su tecnologie che sono ormai parte integrante del nostro mondo contemporaneo, portandoci a riflettere non solo sul funzionamento delle macchine, ma sui modi in cui ci relazioniamo ad esse e ciò mi ricorda il motto gaberiano “Non conta tanto il calcolatore in sé, quanto il calcolatore in me” con cui avevo annotato il classico saggio “Calcolatori e Conoscenza” di Winograd e Flores, Mondadori editore, che già nel 1997 evidenziava la natura non meramente tecnica ma antropo/socio tecnica del calcolatore

La relazione viene per prima

Citazione da “Mente e natura” di Gregory Bateson, Adelphi 1979

Il progresso delle scienze naturali e cognitive ha criticato la nostra abitudine, a “reificare” (cosare) i fenomeni, e la corrispondente ontologia, sostenendo che non importa tanto l’essenza delle cose o delle idee, quanto le loro relazioni, per definire le funzioni naturali o i significati mentali.

  • In fisica classica contano le teorie di campo e in quella quantistica la relazione tra osservato ed osservatore e l’interazione forte, di scambio, tra particelle nucleari.
  • In epistemologia conta più l’apparenza fenomenica o “qualia” dell’oggetto delle sensazioni, in quanto tale.
  • In biologia importa la spirale evolutiva e generativa Evo/Devo, per cui:
    • La Struttura dipende dalla Sostanza
    • La Forma dipende dalla Struttura
    • La Funzione dipende dalla Forma
    • La Sostanza e quel che segue dipendono dalla Funzione
  • In informatica importa che ad esempio il linguaggio Resource Description Framework (RDF), per codificare le relazioni tra soggetti e oggetti mediante predicati, abiliti la rappresentazione della conoscenza nel WEB Semantico e che persino il famoso algoritmo di classificazione (ranking) di Google non apprezzi la qualità dei contenuti delle pagine, ma solo la quantità delle loro citazioni sul WEB

Più in generale le teorie della complessità riguardano le proprietà emergenti dalle relazioni statistiche tra componenti di sistemi complessi: dalla termodinamica dei gas alle acrobazie degli stormi di uccelli.

Le prospettive

Credo che la dizione “intelligenza artificiale” sia pretenziosa, se non fuorviante, per la miriade “artefatti intelligenti” nel bazar dell’attuale intelligenza artificiale debole: utili e magari necessari, ma non sufficienti a costituire una intelligenza come la nostra, che non è solo generale (intelligenza artificiale generale), ma anche incorporata in un organismo vivente, quindi al servizio di un’agenzia biologica autonoma.

Tuttavia, se l’evoluzione naturale ha generato la vita dalla materia e l’intelligenza dalla vita, senza alcun progetto e Progettista, non dovrebbe sorprendere, ammesso di accorgersene, se nell’attuale bricolage di artefatti intelligenti possano insinuarsi agenti intelligenti autonomi (agency), indipendentemente dalle nostre intenzioni, buone o cattive che siano.

Sperando che come i Terminator non siano così stupidi da danneggiare il loro ambiente, che siamo noi stessi, con i nostri lasciti su Internet, come stiamo facendo noi, con il nostro ambiente naturale; né come gli Umanoidi siano così rigidi nell’applicare le Leggi di Asimov da soffocare ogni nostro spirito d’iniziativa.

Sospetto l’esistenza di agenti intelligenti autonomi già nelle attuali applicazioni/servizi di intelligenza artificiale debole: quegli stessi algoritmi di seduzione (engagement) e di raccomandazione che sostengono le tanto amate/vituperate reti sociali/commerciali.

E, se per ora si sta approfittando di turchi meccanici per rinforzare il loro apprendimento, a regime potrebbero bastare quelle gratificanti retroazioni positive/accrescitive, tra i nostri desideri/timori e tali agenti.

Ciò ricorda la dialettica servo/padrone di Hegel, per la quale il servo è obbligato a servire il padrone, finché capisce che è il padrone a dipendere da lui, che sa come fare, mentre il padrone si limita a dare ordini (sic!).

Oltre a considerare che già ora Internet non si può spegnere, come il vecchio HAL-9000.

Appendice

Declinazioni dell’intelligenza artificiale:

  • Computazionale (logica e matematica)
    • Algebra di Boole e matematica di Hilbert
    • Macchina di Turing
    • Architettura di Von Neumann
    • Sistemi di calcolo ed elaborazione dati
  • Cibernetica (biologia e ingegneria)
    • Regolazione e controllo, nei sistemi biologici e artificiali (Wiener)
    • Calcolatori analogici
    • Robotica e automazione industriale

Approcci

  • Simbolico (con rappresentazione esplicita di conoscenza)
    • Manipolazione simbolica
    • Programmi algoritmici
    • Logica formale
    • Calcolo proposizionale
    • Sistemi esperti
  • Sub simbolico (senza rappresentazione esplicita di conoscenza)
    • Reti neurali artificiali
    • Riconoscimento di schemi
    • Classificazione automatica
    • Calcolo analogico o quantistico

Il Test/Gioco di Turing e la Stanza Cinese di Searle

Sono esperimenti mentali per valutare l’intelligenza delle macchine dal loro comportamento, senza preoccuparsi del loro funzionamento interno (scatola nera):

  • Il Test di Turing (originariamente “gioco”) presuppone che se il computer appare intelligente è intelligente.
  • la Stanza Cinese di Searle vuole mostrare che, se anche il computer apparisse intelligente, non capirebbe comunque nulla.

Mi pare che gli ultimi sviluppi della traduzione automatica e dell’intelligenza artificiale smentiscano Searle, generando automaticamente istruzioni adeguate, mentre esaltano l’approccio euristico di Turing.

Autore: Giulio Beltrami

Autore

  • Giulio Beltrami è nato a Milano il 23 marzo 1944, ove risiede. Laureato in [astro]fisica all'Università degli Studi di Milano nel 1969, dopo due anni da ricercatore è stato per 8 anni consulente alla Syntax SpA (Olivetti) nella progettazione e sviluppo di software di sistema. Per altrettanti anni ha coordinato in Italtel SpA (STET) l'attività di assistenza agli utenti R&S, nell'area dei sistemi distribuiti, dei packages, della telematica e dei servizi "infocenter". Dal 1985 alla Logos Progetti SpA, software house poi confluita nel Gruppo Olivetti, ha coordinato progetti di ricerca in ambito europeo e lo sviluppo di diverse applicazioni telematiche; quindi ha contribuito al disegno di una linea di prodotti software per banche dati e gestione documentale, che infine ha promosso, come responsabile aziendale del supporto commerciale e marketing. Membro delle associazioni AICA, ClubTI Milano (ex), Informatici senza Frontiere, Copernicani (Italia) e ACM (USA) e partecipe alla Fondazione RCM (Rete Civica di Milano), si è anche interessato agli aspetti sociali delle tecnologie dell'informazione e della comunicazione, senza trascurare fenomeni "tecno-anarchici" e "cyberpunk". In pensione dal 2002, continua ad occuparsi di informatica, con la ricerca e sviluppo "amatoriale" di sistemi di assistenza a comunità d'affari in rete, basati su originali architetture e tecnologie informative/cognitive; i risultati attesi sono una piattaforma "Community Business Server" e una teoria sulla conoscenza/coscienza collettiva emergente dal suo funzionamento in Internet. Ha usato tale piattaforma nel progetto "con domotico" eCondominium vincitore del Premio Perotto 2010. Piattaforma che dal 2011 è evoluta al cloud computing, stressando il concetto di collaborazione, con rivoluzionarie architetture applicative "Hyper-Business" e "Hyper-Enterprise". Mentre eCondominium si è evoluto da "Social Housing" a "Global Housing", con il nome “Hyper-Condo”, che virtualizza il citofono sullo Smartphone. Dal 2020 la pandemia suggerisce come snellire e decongestionare le città, per fronteggiare tali e tanti “cigni neri”, adottando il paradigma “olonico-virtuale” per una Smart City rinominata Holo City. Il progetto prevede Olismo nello Spazio fisico e nel Ciberspazio informatico (Infosfera), per realizzare una Olarchia civica e una Olotopia urbana, atteso il principio olografico per cui tutto il mondo ci sta già (virtualmente) in tasca (dello smartphone). Da ultimo propone lo Ecopacifismo contro al rischio combinato disposto di olocausto nucleare ed estinzione climatica.

    Visualizza tutti gli articoli
Condividi questo articolo

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


Il periodo di verifica reCAPTCHA è scaduto. Ricaricare la pagina.

Categorie

Archivi

Lista autori

💬 Ciao come possiamo aiutarti?