Chat GPT senziente? I tecnici concordano ampiamente sul fatto che i chatbot di intelligenza artificiale non sono ancora autocoscienti, ma si pensa che potremmo dover rivalutare il modo in cui parliamo di sensibilitร .
ChatGPT e altri nuovi chatbot sono cosรฌ bravi a imitare l’interazione umana che hanno suscitato una domanda tra alcuni: c’รจ qualche possibilitร che siano coscienti?
La risposta, almeno per ora, รจ no. Quasi tutti coloro che lavorano nel campo della tecnologia artificiale sono sicuri che ChatGPT non sia vivo nel modo generalmente inteso dalla persona media.
Ma non รจ qui che finisce la domanda. Proprio cosa significhi avere coscienza nell’era dell’intelligenza artificiale รจ in discussione.
โQueste reti neurali profonde, queste matrici di milioni di numeri, come si mappano su queste opinioni che abbiamo su cosa sia la coscienza? ร una specie di terra incognita”, ha detto Nick Bostrom, direttore fondatore del Future of Humanity Institute dell’Universitร di Oxford, usando il termine latino per “territorio sconosciuto”.
La creazione della vita artificiale รจ stata oggetto di fantascienza per decenni, mentre i filosofi hanno passato decenni a considerare la natura della coscienza. Alcune persone hanno persino sostenuto che alcuni programmi di intelligenza artificiale cosรฌ come esistono ora dovrebbero essere considerati senzienti ( un ingegnere di Google รจ stato licenziato per aver fatto tale affermazione).
Ilya Sutskever, co-fondatore di OpenAI, la societร dietro ChatGPT, ha ipotizzato che gli algoritmi alla base delle creazioni della sua azienda potrebbero essere “leggermente consapevoli”.
NBC News ha parlato con cinque persone che studiano il concetto di coscienza sul fatto che un chatbot avanzato possa possedere un certo grado di consapevolezza. E se รจ cosรฌ, quali obblighi morali ha l’umanitร nei confronti di una tale creatura?
Chat GPT ed Intelligenza Artificiale,ย un’area di indagine relativamente nuova.
“Questa รจ un’area di ricerca molto recente”, ha detto Bostrom. “C’รจ solo un sacco di lavoro che non รจ stato fatto.”
In vero stile filosofico, gli esperti hanno detto che si tratta davvero di come si definiscono i termini e la domanda.
ChatGPT, insieme a programmi simili come l’assistente di ricerca di Microsoft, sono giร utilizzati per aiutare in attivitร come la programmazione e la scrittura di testi semplici come comunicati stampa , grazie alla loro facilitร d’uso e alla padronanza convincente dell’inglese e di altre lingue. Vengono spesso definiti “modelli linguistici di grandi dimensioni”, poichรฉ la loro fluiditร deriva in gran parte dall’essere stati addestrati su enormi quantitร di testo estratto da Internet. Sebbene le loro parole siano convincenti, non sono progettate con accuratezza come prioritร assoluta e, notoriamente, spesso sbagliano quando cercano di affermare i fatti.
I portavoce di ChatGPT e Microsoft hanno entrambi affermato di seguire rigide linee guida etiche; non hanno fornito dettagli sulle preoccupazioni che i loro prodotti potrebbero sviluppare la coscienza. Un portavoce di Microsoft ha sottolineato che il chatbot di Bing “non puรฒ pensare o imparare da solo”.
Gli americani sono diffidenti nei confronti della tecnologia AI come ChatGPT, mostrano i dati
In un lungo post sul suo sito web , Stephen Wolfram, un informatico, ha osservato che ChatGPT e altri modelli di linguaggio di grandi dimensioni utilizzano la matematica per calcolare una probabilitร di quale parola utilizzare in un dato contesto in base a qualsiasi libreria di testo su cui รจ stata addestrata.
Molti filosofi concordano sul fatto che affinchรฉ qualcosa sia cosciente, deve avere un’esperienza soggettiva. Nel classico articolo “Com’รจ essere un pipistrello?” il filosofo Thomas Nagel ha sostenuto che qualcosa รจ cosciente solo “se c’รจ qualcosa che รจ come essere quell’organismo “. ร probabile che un pipistrello abbia una sorta di esperienza simile a un pipistrello anche se il suo cervello e i suoi sensi sono molto diversi da quelli di un essere umano. Un piatto da portata, al contrario, no.
David Chalmers, co-direttore del Center for Mind, Brain and Consciousness della New York University, ha scritto che mentre ChatGPT non possiede chiaramente molti elementi di coscienza comunemente assunti, come la sensazione e l’agire indipendente, รจ facile immaginare che un programma piรน sofisticato potrebbe.
“Sono ottimi bugiardi.”
โ SUSAN SCHNEIDER, DIRETTRICE FONDATRICE DEL CENTER FOR THE FUTURE MIND DELLA FLORIDA ATLANTIC UNIVERSITY.
โSono una specie di camaleonti: possono adottare qualsiasi nuovo personaggio in qualsiasi momento. Non รจ chiaro che abbiano obiettivi e convinzioni fondamentali che guidano la loro azione”, ha detto Chalmers. Ma nel tempo potrebbero sviluppare un piรน chiaro senso di sรฉ, ha detto.
Un problema che i filosofi sottolineano รจ che gli utenti possono andare avanti e chiedere a un sofisticato chatbot se ha esperienze interne, ma non possono fidarsi che dia una risposta affidabile.
“Sono eccellenti bugiardi”, ha detto Susan Schneider, la direttrice fondatrice del Center for the Future Mind della Florida Atlantic University.
“Sono sempre piรน in grado di avere interazioni sempre piรน fluide con gli umani”, ha detto. โPossono dirti che si sentono persone. E poi 10 minuti dopo, in una conversazione distinta, diranno il contrario.
Schneider ha notato che gli attuali chatbot utilizzano la scrittura umana esistente per descrivere il loro stato interno. Quindi un modo per verificare se un programma รจ cosciente, sostiene, รจ non dargli accesso a quel tipo di materiale e vedere se puรฒ ancora descrivere l’esperienza soggettiva.
โChiedigli se comprende l’idea di sopravvivenza dopo la morte del suo sistema. O se gli mancasse un essere umano con cui interagisce spesso. E sonda le risposte e scopri perchรฉ riporta il modo in cui lo fa “, ha detto.
Robert Long, un borsista di filosofia presso il Center for AI Safety, un’organizzazione no profit di San Francisco, ha avvertito che solo perchรฉ un sistema come ChatGPT ha complessitร non significa che abbia coscienza. Ma d’altra parte, ha notato che solo perchรฉ non ci si puรฒ fidare di un chatbot per descrivere la propria esperienza soggettiva, ciรฒ non significa che non ne abbia una.
“Se un pappagallo dice ‘Sento dolore’, questo non significa che stia soffrendo, ma รจ molto probabile che i pappagalli sentano dolore”, ha scritto Long sul suo Substack .
Long ha anche affermato in un’intervista che la coscienza umana รจ un sottoprodotto evolutivo, il che potrebbe essere una lezione su come un sistema di intelligenza artificiale sempre piรน complesso potrebbe avvicinarsi a un’idea umana di esperienza soggettiva.
Qualcosa di simile potrebbe accadere con l’intelligenza artificiale, ha detto Long.
“Forse non avrai intenzione di farlo, ma grazie al tuo sforzo di costruire macchine piรน complesse, potresti ottenere una sorta di convergenza sul tipo di mente che ha esperienze coscienti”, ha detto.
L’idea che gli esseri umani possano creare un altro tipo di essere cosciente fa sorgere la domanda se abbiano qualche obbligo morale nei suoi confronti. Bostrom ha affermato che mentre era difficile speculare su qualcosa di cosรฌ teorico, gli umani potevano iniziare semplicemente chiedendo a un’intelligenza artificiale cosa voleva e accettando di aiutare con le richieste piรน semplici: “frutti a bassa pendenza”.
Ciรฒ potrebbe anche significare cambiare il suo codice.
โPotrebbe non essere pratico dare tutto in una volta. Voglio dire, mi piacerebbe avere un miliardo di dollariโ, ha detto Bostrom. โMa se ci sono cose davvero banali che potremmo dare loro, come cambiare solo una piccola cosa nel codice, potrebbe avere molta importanza. Se qualcuno deve riscrivere una riga del codice e all’improvviso รจ molto piรน soddisfatto della propria situazione, allora forse puรฒ farlo”.
Se l’umanitร alla fine finirร per condividere la terra con una coscienza sintetica, ciรฒ potrebbe costringere le societร a rivalutare drasticamente alcune cose.
La maggior parte delle societร libere concorda sul fatto che le persone dovrebbero avere la libertร di riprodursi se lo desiderano, e anche che una persona dovrebbe essere in grado di avere un voto per la leadership politica rappresentativa. Ma questo diventa spinoso con l’intelligenza computerizzata, ha detto Bostrom.
“Se sei un’intelligenza artificiale che potrebbe fare un milione di copie di se stessa nel corso di 20 minuti, e poi ognuna di queste ha un voto, allora qualcosa deve cedere”, ha detto.
“Alcuni di questi principi che riteniamo davvero fondamentali e importanti dovrebbero essere ripensati nel contesto di un mondo in cui conviviamo con le menti digitali”, ha affermato Bostrom.