Chat GPT: Lโ€™Intelligenza Artificiale Potrebbe Diventare Senziente?

Chat GPT senziente? I tecnici concordano ampiamente sul fatto che i chatbot di intelligenza artificiale non sono ancora autocoscienti, ma si pensa che potremmo dover rivalutare il modo in cui parliamo di sensibilitร .

ChatGPT e altri nuovi chatbot sono cosรฌ bravi a imitare lโ€™interazione umana che hanno suscitato una domanda tra alcuni: cโ€™รจ qualche possibilitร  che siano coscienti?

La risposta, almeno per ora, รจ no. Quasi tutti coloro che lavorano nel campo della tecnologia artificiale sono sicuri che ChatGPT non sia vivo nel modo generalmente inteso dalla persona media.

Ma non รจ qui che finisce la domanda. Proprio cosa significhi avere coscienza nellโ€™era dellโ€™intelligenza artificiale รจ in discussione.

โ€œQueste reti neurali profonde, queste matrici di milioni di numeri, come si mappano su queste opinioni che abbiamo su cosa sia la coscienza? รˆ una specie di terra incognitaโ€, ha detto Nick Bostrom, direttore fondatore del Future of Humanity Institute dellโ€™Universitร  di Oxford, usando il termine latino per โ€œterritorio sconosciutoโ€.

La creazione della vita artificiale รจ stata oggetto di fantascienza per decenni, mentre i filosofi hanno passato decenni a considerare la natura della coscienza. Alcune persone hanno persino sostenuto che alcuni programmi di intelligenza artificiale cosรฌ come esistono ora dovrebbero essere considerati senzienti ( un ingegnere di Google รจ stato licenziato per aver fatto tale affermazione).

Ilya Sutskever, co-fondatore di OpenAI, la societร  dietro ChatGPT, ha ipotizzato che gli algoritmi alla base delle creazioni della sua azienda potrebbero essere โ€œleggermente consapevoliโ€.

NBC News ha parlato con cinque persone che studiano il concetto di coscienza sul fatto che un chatbot avanzato possa possedere un certo grado di consapevolezza. E se รจ cosรฌ, quali obblighi morali ha lโ€™umanitร  nei confronti di una tale creatura?

Chat GPT: L'Intelligenza Artificiale Potrebbe Diventare Senziente?
Sopra: unโ€™immagine dal film di fantascienza โ€œTerminatorโ€ in cui lโ€™Intelligenza Artificiale รจ il principale protagonista: quando inizia a prendere coscienza di sรจ inizia a combattere gli esseri umani.

Chat GPT ed Intelligenza Artificiale,  unโ€™area di indagine relativamente nuova.

โ€œQuesta รจ unโ€™area di ricerca molto recenteโ€, ha detto Bostrom. โ€œCโ€™รจ solo un sacco di lavoro che non รจ stato fatto.โ€

In vero stile filosofico, gli esperti hanno detto che si tratta davvero di come si definiscono i termini e la domanda.

ChatGPT, insieme a programmi simili come lโ€™assistente di ricerca di Microsoft, sono giร  utilizzati per aiutare in attivitร  come la programmazione e la scrittura di testi semplici come comunicati stampa , grazie alla loro facilitร  dโ€™uso e alla padronanza convincente dellโ€™inglese e di altre lingue. Vengono spesso definiti โ€œmodelli linguistici di grandi dimensioniโ€, poichรฉ la loro fluiditร  deriva in gran parte dallโ€™essere stati addestrati su enormi quantitร  di testo estratto da Internet. Sebbene le loro parole siano convincenti, non sono progettate con accuratezza come prioritร  assoluta e, notoriamente, spesso sbagliano quando cercano di affermare i fatti.

I portavoce di ChatGPT e Microsoft hanno entrambi affermato di seguire rigide linee guida etiche; non hanno fornito dettagli sulle preoccupazioni che i loro prodotti potrebbero sviluppare la coscienza. Un portavoce di Microsoft ha sottolineato che il chatbot di Bing โ€œnon puรฒ pensare o imparare da soloโ€.

Gli americani sono diffidenti nei confronti della tecnologia AI come ChatGPT, mostrano i dati

In un lungo post sul suo sito web , Stephen Wolfram, un informatico, ha osservato che ChatGPT e altri modelli di linguaggio di grandi dimensioni utilizzano la matematica per calcolare una probabilitร  di quale parola utilizzare in un dato contesto in base a qualsiasi libreria di testo su cui รจ stata addestrata.

Molti filosofi concordano sul fatto che affinchรฉ qualcosa sia cosciente, deve avere unโ€™esperienza soggettiva. Nel classico articolo โ€œComโ€™รจ essere un pipistrello?โ€ il filosofo Thomas Nagel ha sostenuto che qualcosa รจ cosciente solo โ€œse cโ€™รจ qualcosa che รจ come essere quellโ€™organismo โ€œ. รˆ probabile che un pipistrello abbia una sorta di esperienza simile a un pipistrello anche se il suo cervello e i suoi sensi sono molto diversi da quelli di un essere umano. Un piatto da portata, al contrario, no.

David Chalmers, co-direttore del Center for Mind, Brain and Consciousness della New York University, ha scritto che mentre ChatGPT non possiede chiaramente molti elementi di coscienza comunemente assunti, come la sensazione e lโ€™agire indipendente, รจ facile immaginare che un programma piรน sofisticato potrebbe.

โ€œSono ottimi bugiardi.โ€

โ€” SUSAN SCHNEIDER, DIRETTRICE FONDATRICE DEL CENTER FOR THE FUTURE MIND DELLA FLORIDA ATLANTIC UNIVERSITY.

โ€œSono una specie di camaleonti: possono adottare qualsiasi nuovo personaggio in qualsiasi momento. Non รจ chiaro che abbiano obiettivi e convinzioni fondamentali che guidano la loro azioneโ€, ha detto Chalmers. Ma nel tempo potrebbero sviluppare un piรน chiaro senso di sรฉ, ha detto.

Un problema che i filosofi sottolineano รจ che gli utenti possono andare avanti e chiedere a un sofisticato chatbot se ha esperienze interne, ma non possono fidarsi che dia una risposta affidabile.

โ€œSono eccellenti bugiardiโ€, ha detto Susan Schneider, la direttrice fondatrice del Center for the Future Mind della Florida Atlantic University.

โ€œSono sempre piรน in grado di avere interazioni sempre piรน fluide con gli umaniโ€, ha detto. โ€œPossono dirti che si sentono persone. E poi 10 minuti dopo, in una conversazione distinta, diranno il contrario.

Schneider ha notato che gli attuali chatbot utilizzano la scrittura umana esistente per descrivere il loro stato interno. Quindi un modo per verificare se un programma รจ cosciente, sostiene, รจ non dargli accesso a quel tipo di materiale e vedere se puรฒ ancora descrivere lโ€™esperienza soggettiva.

โ€œChiedigli se comprende lโ€™idea di sopravvivenza dopo la morte del suo sistema. O se gli mancasse un essere umano con cui interagisce spesso. E sonda le risposte e scopri perchรฉ riporta il modo in cui lo fa โ€œ, ha detto.

Robert Long, un borsista di filosofia presso il Center for AI Safety, unโ€™organizzazione no profit di San Francisco, ha avvertito che solo perchรฉ un sistema come ChatGPT ha complessitร  non significa che abbia coscienza. Ma dโ€™altra parte, ha notato che solo perchรฉ non ci si puรฒ fidare di un chatbot per descrivere la propria esperienza soggettiva, ciรฒ non significa che non ne abbia una.

โ€œSe un pappagallo dice โ€˜Sento doloreโ€™, questo non significa che stia soffrendo, ma รจ molto probabile che i pappagalli sentano doloreโ€, ha scritto Long sul suo Substack .

Long ha anche affermato in unโ€™intervista che la coscienza umana รจ un sottoprodotto evolutivo, il che potrebbe essere una lezione su come un sistema di intelligenza artificiale sempre piรน complesso potrebbe avvicinarsi a unโ€™idea umana di esperienza soggettiva.

Qualcosa di simile potrebbe accadere con lโ€™intelligenza artificiale, ha detto Long.

โ€œForse non avrai intenzione di farlo, ma grazie al tuo sforzo di costruire macchine piรน complesse, potresti ottenere una sorta di convergenza sul tipo di mente che ha esperienze coscientiโ€, ha detto.

Lโ€™idea che gli esseri umani possano creare un altro tipo di essere cosciente fa sorgere la domanda se abbiano qualche obbligo morale nei suoi confronti. Bostrom ha affermato che mentre era difficile speculare su qualcosa di cosรฌ teorico, gli umani potevano iniziare semplicemente chiedendo a unโ€™intelligenza artificiale cosa voleva e accettando di aiutare con le richieste piรน semplici: โ€œfrutti a bassa pendenzaโ€.

Ciรฒ potrebbe anche significare cambiare il suo codice.

โ€œPotrebbe non essere pratico dare tutto in una volta. Voglio dire, mi piacerebbe avere un miliardo di dollariโ€, ha detto Bostrom. โ€œMa se ci sono cose davvero banali che potremmo dare loro, come cambiare solo una piccola cosa nel codice, potrebbe avere molta importanza. Se qualcuno deve riscrivere una riga del codice e allโ€™improvviso รจ molto piรน soddisfatto della propria situazione, allora forse puรฒ farloโ€.

Se lโ€™umanitร  alla fine finirร  per condividere la terra con una coscienza sintetica, ciรฒ potrebbe costringere le societร  a rivalutare drasticamente alcune cose.

La maggior parte delle societร  libere concorda sul fatto che le persone dovrebbero avere la libertร  di riprodursi se lo desiderano, e anche che una persona dovrebbe essere in grado di avere un voto per la leadership politica rappresentativa. Ma questo diventa spinoso con lโ€™intelligenza computerizzata, ha detto Bostrom.

โ€œSe sei unโ€™intelligenza artificiale che potrebbe fare un milione di copie di se stessa nel corso di 20 minuti, e poi ognuna di queste ha un voto, allora qualcosa deve cedereโ€, ha detto.

โ€œAlcuni di questi principi che riteniamo davvero fondamentali e importanti dovrebbero essere ripensati nel contesto di un mondo in cui conviviamo con le menti digitaliโ€, ha affermato Bostrom.

ARTICOLI CORRELATI:

Autore

  • massy biagio

    Fondatore di Economia Italiacom e Finanza Italiacom รจ divulgatore finanziario e trader.