Chat GPT senziente? I tecnici concordano ampiamente sul fatto che i chatbot di intelligenza artificiale non sono ancora autocoscienti, ma si pensa che potremmo dover rivalutare il modo in cui parliamo di sensibilitร .
ChatGPT e altri nuovi chatbot sono cosรฌ bravi a imitare lโinterazione umana che hanno suscitato una domanda tra alcuni: cโรจ qualche possibilitร che siano coscienti?
La risposta, almeno per ora, รจ no. Quasi tutti coloro che lavorano nel campo della tecnologia artificiale sono sicuri che ChatGPT non sia vivo nel modo generalmente inteso dalla persona media.
Ma non รจ qui che finisce la domanda. Proprio cosa significhi avere coscienza nellโera dellโintelligenza artificiale รจ in discussione.
โQueste reti neurali profonde, queste matrici di milioni di numeri, come si mappano su queste opinioni che abbiamo su cosa sia la coscienza? ร una specie di terra incognitaโ, ha detto Nick Bostrom, direttore fondatore del Future of Humanity Institute dellโUniversitร di Oxford, usando il termine latino per โterritorio sconosciutoโ.
La creazione della vita artificiale รจ stata oggetto di fantascienza per decenni, mentre i filosofi hanno passato decenni a considerare la natura della coscienza. Alcune persone hanno persino sostenuto che alcuni programmi di intelligenza artificiale cosรฌ come esistono ora dovrebbero essere considerati senzienti ( un ingegnere di Google รจ stato licenziato per aver fatto tale affermazione).
Ilya Sutskever, co-fondatore di OpenAI, la societร dietro ChatGPT, ha ipotizzato che gli algoritmi alla base delle creazioni della sua azienda potrebbero essere โleggermente consapevoliโ.
NBC News ha parlato con cinque persone che studiano il concetto di coscienza sul fatto che un chatbot avanzato possa possedere un certo grado di consapevolezza. E se รจ cosรฌ, quali obblighi morali ha lโumanitร nei confronti di una tale creatura?
Chat GPT ed Intelligenza Artificiale, unโarea di indagine relativamente nuova.
โQuesta รจ unโarea di ricerca molto recenteโ, ha detto Bostrom. โCโรจ solo un sacco di lavoro che non รจ stato fatto.โ
In vero stile filosofico, gli esperti hanno detto che si tratta davvero di come si definiscono i termini e la domanda.
ChatGPT, insieme a programmi simili come lโassistente di ricerca di Microsoft, sono giร utilizzati per aiutare in attivitร come la programmazione e la scrittura di testi semplici come comunicati stampa , grazie alla loro facilitร dโuso e alla padronanza convincente dellโinglese e di altre lingue. Vengono spesso definiti โmodelli linguistici di grandi dimensioniโ, poichรฉ la loro fluiditร deriva in gran parte dallโessere stati addestrati su enormi quantitร di testo estratto da Internet. Sebbene le loro parole siano convincenti, non sono progettate con accuratezza come prioritร assoluta e, notoriamente, spesso sbagliano quando cercano di affermare i fatti.
I portavoce di ChatGPT e Microsoft hanno entrambi affermato di seguire rigide linee guida etiche; non hanno fornito dettagli sulle preoccupazioni che i loro prodotti potrebbero sviluppare la coscienza. Un portavoce di Microsoft ha sottolineato che il chatbot di Bing โnon puรฒ pensare o imparare da soloโ.
Gli americani sono diffidenti nei confronti della tecnologia AI come ChatGPT, mostrano i dati
In un lungo post sul suo sito web , Stephen Wolfram, un informatico, ha osservato che ChatGPT e altri modelli di linguaggio di grandi dimensioni utilizzano la matematica per calcolare una probabilitร di quale parola utilizzare in un dato contesto in base a qualsiasi libreria di testo su cui รจ stata addestrata.
Molti filosofi concordano sul fatto che affinchรฉ qualcosa sia cosciente, deve avere unโesperienza soggettiva. Nel classico articolo โComโรจ essere un pipistrello?โ il filosofo Thomas Nagel ha sostenuto che qualcosa รจ cosciente solo โse cโรจ qualcosa che รจ come essere quellโorganismo โ. ร probabile che un pipistrello abbia una sorta di esperienza simile a un pipistrello anche se il suo cervello e i suoi sensi sono molto diversi da quelli di un essere umano. Un piatto da portata, al contrario, no.
David Chalmers, co-direttore del Center for Mind, Brain and Consciousness della New York University, ha scritto che mentre ChatGPT non possiede chiaramente molti elementi di coscienza comunemente assunti, come la sensazione e lโagire indipendente, รจ facile immaginare che un programma piรน sofisticato potrebbe.
โSono ottimi bugiardi.โ
โ SUSAN SCHNEIDER, DIRETTRICE FONDATRICE DEL CENTER FOR THE FUTURE MIND DELLA FLORIDA ATLANTIC UNIVERSITY.
โSono una specie di camaleonti: possono adottare qualsiasi nuovo personaggio in qualsiasi momento. Non รจ chiaro che abbiano obiettivi e convinzioni fondamentali che guidano la loro azioneโ, ha detto Chalmers. Ma nel tempo potrebbero sviluppare un piรน chiaro senso di sรฉ, ha detto.
Un problema che i filosofi sottolineano รจ che gli utenti possono andare avanti e chiedere a un sofisticato chatbot se ha esperienze interne, ma non possono fidarsi che dia una risposta affidabile.
โSono eccellenti bugiardiโ, ha detto Susan Schneider, la direttrice fondatrice del Center for the Future Mind della Florida Atlantic University.
โSono sempre piรน in grado di avere interazioni sempre piรน fluide con gli umaniโ, ha detto. โPossono dirti che si sentono persone. E poi 10 minuti dopo, in una conversazione distinta, diranno il contrario.
Schneider ha notato che gli attuali chatbot utilizzano la scrittura umana esistente per descrivere il loro stato interno. Quindi un modo per verificare se un programma รจ cosciente, sostiene, รจ non dargli accesso a quel tipo di materiale e vedere se puรฒ ancora descrivere lโesperienza soggettiva.
โChiedigli se comprende lโidea di sopravvivenza dopo la morte del suo sistema. O se gli mancasse un essere umano con cui interagisce spesso. E sonda le risposte e scopri perchรฉ riporta il modo in cui lo fa โ, ha detto.
Robert Long, un borsista di filosofia presso il Center for AI Safety, unโorganizzazione no profit di San Francisco, ha avvertito che solo perchรฉ un sistema come ChatGPT ha complessitร non significa che abbia coscienza. Ma dโaltra parte, ha notato che solo perchรฉ non ci si puรฒ fidare di un chatbot per descrivere la propria esperienza soggettiva, ciรฒ non significa che non ne abbia una.
โSe un pappagallo dice โSento doloreโ, questo non significa che stia soffrendo, ma รจ molto probabile che i pappagalli sentano doloreโ, ha scritto Long sul suo Substack .
Long ha anche affermato in unโintervista che la coscienza umana รจ un sottoprodotto evolutivo, il che potrebbe essere una lezione su come un sistema di intelligenza artificiale sempre piรน complesso potrebbe avvicinarsi a unโidea umana di esperienza soggettiva.
Qualcosa di simile potrebbe accadere con lโintelligenza artificiale, ha detto Long.
โForse non avrai intenzione di farlo, ma grazie al tuo sforzo di costruire macchine piรน complesse, potresti ottenere una sorta di convergenza sul tipo di mente che ha esperienze coscientiโ, ha detto.
Lโidea che gli esseri umani possano creare un altro tipo di essere cosciente fa sorgere la domanda se abbiano qualche obbligo morale nei suoi confronti. Bostrom ha affermato che mentre era difficile speculare su qualcosa di cosรฌ teorico, gli umani potevano iniziare semplicemente chiedendo a unโintelligenza artificiale cosa voleva e accettando di aiutare con le richieste piรน semplici: โfrutti a bassa pendenzaโ.
Ciรฒ potrebbe anche significare cambiare il suo codice.
โPotrebbe non essere pratico dare tutto in una volta. Voglio dire, mi piacerebbe avere un miliardo di dollariโ, ha detto Bostrom. โMa se ci sono cose davvero banali che potremmo dare loro, come cambiare solo una piccola cosa nel codice, potrebbe avere molta importanza. Se qualcuno deve riscrivere una riga del codice e allโimprovviso รจ molto piรน soddisfatto della propria situazione, allora forse puรฒ farloโ.
Se lโumanitร alla fine finirร per condividere la terra con una coscienza sintetica, ciรฒ potrebbe costringere le societร a rivalutare drasticamente alcune cose.
La maggior parte delle societร libere concorda sul fatto che le persone dovrebbero avere la libertร di riprodursi se lo desiderano, e anche che una persona dovrebbe essere in grado di avere un voto per la leadership politica rappresentativa. Ma questo diventa spinoso con lโintelligenza computerizzata, ha detto Bostrom.
โSe sei unโintelligenza artificiale che potrebbe fare un milione di copie di se stessa nel corso di 20 minuti, e poi ognuna di queste ha un voto, allora qualcosa deve cedereโ, ha detto.
โAlcuni di questi principi che riteniamo davvero fondamentali e importanti dovrebbero essere ripensati nel contesto di un mondo in cui conviviamo con le menti digitaliโ, ha affermato Bostrom.