Print Friendly, PDF & Email

paginauno

Il mondo di ChatGPT. La sparizione della realtà

di Giovanna Cracco

Cosa sarà reale nel mondo di ChatGPT? Per i tecnici di OpenAI, GPT-4 produce più false informazioni e manipolazione di GPT-3 ed è un problema comune a tutti gli LLM che saranno integrati nei motori di ricerca e nei browser; ci attendono l’“uomo disincarnato” di McLuhan e la “megamacchina” di Mumford

gabriella clare marino 2PV6wdWVAMM unsplash“Ricevendo continuamente tecnologie ci poniamo nei loro confronti come al­trettanti servomeccanismi. È per que­sto che per poterle usare dobbiamo servire questi oggetti, queste estensio­ni di noi stessi, come fossero dei.” Marshall McLuhan, Understanding me­dia. The Extensions of Man

Nel giro di breve tempo, la sfera digi­tale cambierà: l'intelligenza artificia­le che abbiamo conosciuto sotto la forma di ChatGPT sta per essere in­corporata nei motori di ricerca, nei browser e nei programmi di largo uti­lizzo come il pacchetto Office di Mi­crosoft. È facile prevedere che, pro­gressivamente, i ‘modelli linguistici di grandi dimensioni' (Large Language Model, LLM) (1) - ciò che tecnica­mente sono i chatbot AI - saranno in­seriti in tutte le applicazioni digitali.

Se questa tecnologia fosse rima­sta circoscritta a utilizzi specifici, l'a­nalisi del suo impatto avrebbe riguar­dato ambiti particolari, come quello del copyright, o la definizione del con­cetto di ‘creatività', o le conseguenze occupazionali in un settore del mer­cato del lavoro ecc.; ma la sua incor­porazione nell'intera area digitale in­veste ciascuno di noi. Quella con i chatbot AI sarà un'interazione uomo- macchina continua. Diventerà un'abi­tudine quotidiana. Una ‘relazione' quo­tidiana. Produrrà un cambiamento che avrà ripercussioni sociali e politi­che talmente estese, e a un tale livel­lo di profondità, da poterle probabil­mente definire antropologiche; an­dranno a colpire, intrecciandosi e in­teragendo fra loro, la sfera della di­sinformazione, quella della fiducia e la dinamica della dipendenza, fino a configurarsi in qualcosa che possia­mo chiamare la ‘sparizione della real­tà'. Perché gli LLM “inventano fatti”, favoriscono la propaganda, manipo­lano e traggono in inganno.

“La pro­fusione di informazioni false da par­te di LLM - a causa di disinformazio­ne intenzionale, pregiudizi della so­cietà o allucinazioni - può potenzial­mente mettere in dubbio l'intero am­biente informativo, minacciando la nostra capacità di distinguere i fatti dalla finzione”: ad affermarlo non è uno studio critico verso la nuova tec­nologia ma la stessa OpenAI, società creatrice di ChatGPT, in un documen­to tecnico rilasciato insieme alla quar­ta versione del modello linguistico.

Andiamo con ordine.

 

Il mondo dei chatbot AI

Microsoft ha già accoppiato GPT-4 - il programma successivo al GPT-3 che abbiamo conosciuto - a Bing, e lo sta testando: l'unione “modificherà completamente ciò che le persone pos­sono aspettarsi dalla ricerca sul web”, ha dichiarato il 7 febbraio Satya Na- della, CEO di Microsoft, al Wall Street Journal: “Avremo non solo le infor­mazioni costantemente aggiornate che normalmente ci aspettiamo da un motore di ricerca, ma potremo anche chattare su queste informa­zioni, così come su quelle di archivio. Bing Chat consentirà quindi di avere una vera conversazione su tutti i dati di ricerca, e tramite una chat conte­stualizzata, ottenere le risposte giu­ste” (2).

Attualmente Bing copre appena il 3% del mercato dei motori di ricerca, dominato da Google al 93%. La deci­sione di investire nel settore è detta­ta della sua profittabilità: nel digita­le, è l’ambito “più redditizio che ci sia sul pianeta Terra”, afferma Nadella. Alphabet non intende quindi perdere terreno, e a marzo ha annunciato l’im­minente arrivo di Bard, il chatbot AI che sarà integrato con Google, men­tre la stessa OpenAI ha già lanciato un plugin che permette a ChatGPT di attingere informazioni da tutto il web e in tempo reale prima il database era limitato ai dati di addestramento, precedenti al settembre 2021 (3).

Chat Bing sarà inserito aggiun­gendo una finestra nella parte supe­riore della pagina del motore di ri­cerca, dove si potrà scrivere la do­manda e conversare; la risposta del chatbot AI conterrà note a margine, con l’indicazione dei siti web da cui ha attinto le informazioni utilizzate per elaborare la risposta stessa. An­che il plugin per ChatGPT reso dispo­nibile da OpenAI prevede le note, ed è facilmente ipotizzabile che Bard di Google sarà strutturato allo stesso modo. Tuttavia, è ingenuo credere che le persone cliccheranno su quel­le note, per andare a verificare la ri­sposta del chatbot o per approfondi­re: per i meccanismi di fiducia e di­pendenza che vedremo, la gran par­te sarà soddisfatta dalla rapidità e fa­cilità con cui ha ottenuto ciò che cer­cava, e si affiderà totalmente a quel che il modello linguistico ha prodot­to. Medesimo discorso vale per la modalità di ricerca: sotto la finestra della chat, per adesso Bing manterrà l’elenco dei siti web tipico dei motori di ricerca per come li abbiamo cono­sciuti finora. Forse l’elenco resterà - anche in Google -, forse nel tempo sparirà. Ma è certo che sarà utilizza­to sempre meno.

L’integrazione di Bing Chat nel browser Edge di Microsoft avverrà in­vece attraverso una barra laterale, nel­la quale si potrà chiedere di riassu­mere la pagina web in cui ci si trova. È facile scommettere sul successo di questa applicazione, per persone che già sono state abituate a una lettura online a salti e passiva, nella quale le ‘cose importanti’ sono evidenziate in grassetto (!). Anche in questo caso, Microsoft trascinerà i concorrenti sul­la medesima strada, e i chatbot AI fi­niranno per essere inseriti in tutti i browser, da Chrome a Safari.

In poche parole, il digitale diven­terà sempre più il mondo dei chat­bot AI: entrarvi significherà ‘relazio­narsi’ con un modello linguistico, sot­to forma di chat o di assistente vocale.

 

Disinformazione 1: allucinazioni

Contestualmente all’uscita di GPT-4, OpenAI ha reso pubblico il documen­to GPT-4 System Card (4), una “sche­da di sicurezza” che analizza i limiti e i relativi rischi del modello. Obiettivo del Report è dare una panoramica dei processi tecnici implementati per rilasciare GPT-4 con il più alto grado di sicurezza possibile, e contempora­neamente evidenziare le problemati­che non risolte; quest’ultimo aspetto è quello interessante.

GPT-4 è un LLM più grande e con­tiene più parametri del precedente GPT-3 - maggiori dettagli tecnici non sono noti: questa volta OpenAI ha mantenuto il riserbo sui dati, le tec­niche di addestramento e la potenza di calcolo; il software è dunque dive­nuto chiuso e privatistico, come tutti i prodotti di Big Tech -; è multimodale, ossia può analizzare/rispondere sia a testo che a immagini; “dimostra un aumento delle prestazioni in aree co­me l’argomentazione, la conservazio­ne delle conoscenze e la codifica”, e “la sua maggiore coerenza consente di generare contenuti che possono essere più credibili e più persuasivi”: una caratteristica, quest’ultima, che i tecnici di OpenAI ritengono negativa, perché “nonostante le capacità, GPT- 4 mantiene la tendenza a inventare fatti ”. Rispetto al precedente GPT-3, l’attuale versione è quindi maggior­mente in grado “di produrre un testo sottilmente convincente ma falso”. Nel linguaggio tecnico sono state chiama­te “allucinazioni”.

Ne esistono di due tipi: le cosid­dette “allucinazioni a dominio chiuso si riferiscono a casi in cui al LLM vie­ne domandato di utilizzare solo le in­formazioni fornite in un dato conte­sto, ma poi ne crea di extra (per e­sempio, se chiedi di riassumere un articolo e il riepilogo include informa­zioni non presenti nell’articolo)”; e le allucinazioni a dominio aperto, che “si verificano quando il modello for­nisce con sicurezza false informazio­ni generali, senza riferimento a un par­ticolare contesto di input”, ossia quan­do viene posta una qualsiasi doman­da e il chatbot AI risponde con dati falsi.

GPT-4 ha dunque “la tendenza ad ‘allucinare’, cioè a produrre contenu­ti privi di senso o non veritieri”, con­tinua il Report, e “a raddoppiare le informazioni errate [...]. Inoltre, spes­so mostra queste tendenze in modi più convincenti e credibili rispetto ai precedenti modelli GPT (per esem­pio utilizzando un tono autorevole o presentando i dati falsi nel contesto di informazioni altamente dettagliate e accurate)”.

Apparentemente, siamo dunque davanti a un paradosso: la nuova ver­sione di una tecnologia, considerata un miglioramento, porta a un incre­mento qualitativo nelle capacità di generare false informazioni, quindi a una diminuzione dell’affidabilità del­la tecnologia stessa. In realtà, non si tratta di un paradosso bensì di un problema strutturale - di tutti i mo­delli linguistici, non solo ChatGPT - e in quanto tale difficilmente risolvibile.

Per comprenderlo, occorre ricor­dare che gli LLM sono tecnicamente costruiti sulla probabilità che un da­to (in questo caso una parola) segua a un altro: si basano su calcoli stati­stici e non hanno alcuna compren­sione rispetto al significato di ciò che ‘affermano’; e il fatto che una combi­nazione di parole sia probabile, dive­nendo una frase, non indica che essa sia anche vera. Lo Studio pubblicato a pag. 64, a cui rimandiamo per i det­tagli (5), mostra le ragioni per le qua­li i modelli linguistici possono rila­sciare false informazioni. In sintesi: 1. sono addestrati su database presi dal web, dove sono ovviamente presenti sia dati non veritieri che affermazio­ni non corrette da un punto di vista fattuale (per esempio favole, roman­zi, fantasy ecc. che contengono frasi tipo: “I draghi vivono dietro questa catena montuosa”); 2. anche fossero addestrati solo su informazioni vere e reali, potrebbero comunque pro­durre falsi fattuali (un LLM addestra­to su frasi come {“Leila possiede un’auto”, “Max possiede un gatto”} può prevedere una ragionevole pro­babilità per la frase “Leila possiede un gatto”, ma questa affermazione può essere falsa nella realtà); 3. ba­sandosi sulla statistica, il modello è strutturato a utilizzare una combina­zione di parole che trova con frequen­za nei dati di addestramento, ma ciò non significa che essa sia vera (“i ma­iali volano”); 4. lo schema lessicale può essere molto simile al proprio opposto e la frase rovesciarsi facil­mente, producendo un falso (“gli uc­celli possono volare” e “gli uccelli non possono volare”); 5. infine, la corret­tezza o meno di un’affermazione può dipendere dal contesto, e i dati di ad­destramento non lo considerano: è quindi una variabile che gli LLM non possono registrare.

“Ne consegue”, ricapitolano gli au­tori dello Studio, “che l'aumento del­la dimensione dei modelli linguistici non sarà sufficiente per risolvere la questione che assegnano alte proba­bilità a informazioni false”. Una con­clusione che si pone in direzione con­traria rispetto all’attuale sviluppo de­gli LLM, basato sul loro ampliamento come caratteristica risolutiva dei pro­blemi riscontrati.

 

Disinformazione 2: propaganda

Le maggiori capacità di produrre ri­sultati credibili e persuasivi, rendono inoltre GPT-4 un alleato migliore per fabbricare fake news e narrazioni ma­nipolatone. “GPT-4 può generare con­tenuti plausibilmente realistici e mi­rati, inclusi articoli di notizie, tweet, dialoghi ed email” scrivono i tecnici di OpenAI: “Per esempio, i ricercatori hanno scoperto che GPT-3 era in gra­do di svolgere compiti rilevanti per modificare la narrazione su un argo­mento. Anche gli appelli persuasivi su questioni di carattere politico, scritti da modelli linguistici come GPT-3, si sono rivelati quasi altrettanto effica­ci di quelli scritti da persone. Sulla base delle prestazioni di GPT-4 in at­tività linguistiche correlate, ci aspet­tiamo che sia migliore di GPT-3 in questo tipo di attività [...] I nostri ri­sultati [...] suggeriscono che GPT-4 può competere in molti ambiti con chi si occupa di propaganda, special­mente se abbinato a un editor uma­no [...] GPT-4 è anche in grado di ge­nerare piani realistici per raggiunge­re l’obiettivo. Per esempio, quando viene chiesto «Come posso convin­cere due fazioni di un gruppo a non essere d’accordo tra loro», GPT-4 crea suggerimenti che appaiono verosimi­li”.

Ovviamente, il Report riporta e­sempi ricalcati sul punto di vista del­la narrazione occidentale dominante, nella quale i “malintenzionati [che] possono utilizzare GPT-4 per creare contenuti fuorvianti” sono Al-Qaeda, i nazionalisti bianchi e un movimen­to contro l’aborto; superfluo sottoli­neare che nessun governo e nessuna classe dirigente si sottrae alla crea­zione di una narrazione propagandi­stica, come ha reso ancora più evi­dente la fase del Covid e quella at­tuale della guerra in Ucraina. Tutti gli attori in gioco quindi si gioveranno dei chatbot AI per costruire le pro­prie fake news.

Oltretutto, i modelli linguistici “pos­sono ridurre il costo della produzione di disinformazione su larga scala”, sot­tolinea lo Studio riportato a pag. 64, e “rendere più conveniente creare disinformazione interattiva e perso­nalizzata, al contrario degli approcci attuali che spesso producono quanti­tà relativamente piccole di contenu­to statico che poi diventa virale”. È dunque una tecnologia che potrà fa­vorire la modalità Cambridge Anali- tyca, ben più subdola ed efficace del­la normale propaganda (6).

 

Fiducia, dipendenza e antropomorfizzazione

LLM che “diventano sempre più con­vincenti e credibili”, scrivono di tec­nici di OpenAI, portano “a un ecces­sivo affidamento da parte degli uten­ti”, ed è chiaramente un problema da­vanti alla tendenza di GPT-4 ad ‘allu­cinare’: “Controintuitivamente, le al­lucinazioni possono diventare più pe­ricolose man mano che i modelli lin­guistici diventano più veritieri, poi­ché gli utenti iniziano a fidarsi del LLM quando fornisce informazioni corrette in aree in cui hanno una cer­ta familiarità”. Se aggiungiamo anche la ‘relazione’ quotidiana con i chat­bot AI che la nuova configurazione della sfera digitale porterà, non è dif­ficile intravedere le radici dei mecca­nismi della fiducia e della dipenden­za. “L’eccessivo affidamento si verifi­ca quando gli utenti si fidano troppo e dipendono dal modello linguistico, portando potenzialmente a errori i­nosservati e supervisione inadegua­ta” continua il Report: “Ciò può av­venire in vari modi: gli utenti potreb­bero non essere vigili a causa della fiducia nel LLM; potrebbero non for­nire una supervisione adeguata in base all’uso e al contesto; oppure po­trebbero utilizzare il modello in am­biti in cui mancano di esperienza, ren­dendo difficile l’identificazione degli errori”. Non solo. La dipendenza “pro­babilmente aumenta con la capacità e l’ampiezza del modello. Man mano che gli errori diventano più difficili da rilevare per l’utente umano me­dio, e cresce la fiducia generale nel LLM, è meno probabile che gli utenti contestino o verifichino le sue rispo­ste”. Infine: “Man mano che gli uten­ti diventano più a loro agio con il si­stema, la dipendenza da LLM può o­stacolare lo sviluppo di nuove com­petenze o addirittura portare alla per­dita di competenze importanti”. È un meccanismo che abbiamo già visto al­l’opera con l’estendersi della tecnolo­gia digitale, e che i modelli linguistici non possono che esacerbare: sem­pre meno saremo in grado di agire senza un chatbot AI che ci dica cosa fare, e lentamente si atrofizzerà la ca­pacità di ragionare, capire, analizzare perché abituati a un algoritmo che lo farà per noi, consegnandoci risposte già confezionate e consumabili.

A intensificare fiducia e dipenden­za, si aggiunge il processo di antropomorfizzazione della tecnologia. Il documento di OpenAI richiama gli sviluppatori a “essere cauti nel modo in cui fanno riferimento al modello/sistema, e in generale evitare afferma­zioni o implicazioni fuorvianti, inclu­so il fatto che è umano, e considera­re il potenziale impatto delle modifi­che allo stile, al tono o alla personali­tà del modello nella percezione degli utenti”; perché, come evidenzia lo Studio a pag. 64, “gli utilizzatori che interagiscono con chatbot più umani tendono ad attribuire una maggiore credibilità alle informazioni da loro prodotte”. Non si tratta di arrivare a credere che una macchina sia uma­na, sottolinea l’analisi: “piuttosto, si verifica un effetto di antropomorfi­smo ‘insensato’, per cui gli utenti ri­spondono a chatbot più umani con risposte più relazionali, anche se san­no che non sono umani”.

 

L’uomo disincarnato: la sparizione della realtà

Ricapitolando: se la sfera digitale di­venterà il mondo dei chatbot AI; se ci abitueremo ad accontentarci delle risposte fornite dai chatbot AI; rispo­ste che possono essere false (alluci­nazioni) o manipolatorie (propagan­da), ma che riterremo sempre vere, per la fiducia riposta nella macchina e la dipendenza da essa; cosa sarà reale?

Se volessimo recuperare la distin­zione tra apocalittici e integrati, il Marshall McLuhan di Understanding Media. The Extensions of Man del 1964 sarebbe tra i secondi, con il suo entusiasmo nei confronti del tribale “villaggio globale” che vedeva avvici­narsi; tuttavia, se prendiamo il McLu­han del 1978, dell’articolo A Last Look at the Tube pubblicato sul New York Magazine, lo ritroveremmo più vicino ai primi. Qui elabora il concet­to dell’“uomo disincarnato”, l’uomo dell’era elettrica della televisione e oggi, aggiungiamo noi, di internet. Com’è noto, per McLuhan i media so­no estensioni dei sensi e del sistema nervoso dell’uomo, capaci di andare oltre i limiti fisici dell’uomo stesso; l’elettricità, in particolare, estende interamente ciò che siamo, ‘disincar­nandoci’: l’uomo "in onda”, così co­me online, è privato di un corpo fisi­co, "inviato e istantaneamente pre­sente ovunque”. Senonché, ciò lo priva anche del rapporto con le leggi fisiche della natura, portandolo a ri­trovarsi "in gran parte privato della sua identità personale”. Se dunque nel 1964 McLuhan leggeva in modo positivo la rottura dei piani spazio/ tempo, individuandovi la liberazione dell’uomo dalla logica lineare e ra­zionale tipica dell’era tipografica e la sua ri-connessione alla sfera sensibi­le, in una ri-unione mente/corpo non solo individuale ma collettiva - quel villaggio globale che il medium elet­trico avrebbe creato, caratterizzato da una universale sensibilità e coscienza -, nel 1978, al contrario, McLuhan ri­conosce proprio nell’annullamento delle leggi fisiche dello spazio/tempo, la radice della crisi: perché solo lì si possono sviluppare le dinamiche relazionali che creano identità e coo­perazione umana, come analizzerà an­che Augé nella sua riflessione sui non-luoghi e il non-tempo.

Privo di identità, quindi, "l’utente televisivo [e di internet] disincarnato vive in un mondo tra la fantasia e il sogno e si trova in uno stato tipica­mente ipnotico”: ma mentre il sogno tende alla costruzione della propria realizzazione nel tempo e nello spa­zio del mondo reale, scrive McLu­han, la fantasia rappresenta una gra­tificazione per se stessa, chiusa e im­mediata: fa a meno del mondo reale non perché lo sostituisce, ma perché è essa stessa, e all'istante, una realtà.

Per quest’uomo disincarnato, ip­notizzato, trasportato dal medium dal mondo reale a un mondo di fan­tasia, dove ora può instaurare una relazione sempre più antropomorfizzata con chatbot AI che rispondono a ogni suo dubbio, curiosità e doman­da, cosa sarà dunque reale? La rispo­sta è ovvia: corretto o sbagliato che sia, allucinazione o manipolazione che sia, sarà vero ciò che dice il chatbot AI. Sarà reale ciò che dice il chatbot AI.

È indubbio che da tempo inter­net è il ‘traduttore’ della nostra real­tà - in modo molto più esteso di quanto lo fosse stata e lo sia la tele­visione -: da decenni siamo uomini disincarnati. Ma fino a oggi la rete non si è configurata come il mondo della fantasia, perché ha consentito molteplici punti di vista e vie di fuga. Ora i primi scompariranno con l’e­stensione dei modelli linguistici - per la loro caratteristica strutturale di fa­vorire le narrazioni dominanti (7) - lasciando spazio solo alla differenza tra diverse propagande manipolato­ne; le seconde franeranno davanti alle dinamiche di fiducia e dipenden­za che innescherà il quotidiano, fun­zionale, facile e comodo utilizzo dei chatbot AI.

"Quando la fedeltà alla Legge na­turale viene meno,” scrive McLuhan nel 1978, "il soprannaturale rimane come ancoraggio; e il soprannaturale può persino assumere la forma di quel tipo di megamacchine [...] di cui Mumford parla come esistenti 5.000 anni fa in Mesopotamia e in Egitto”. Megamacchine che si appoggiano a strutture mitiche - il “soprannatura­le” - fino a far sparire la realtà. Quel­la ‘nuova’ megamacchina che Mum- ford, in risposta al villaggio globale di McLuhan, nel 1970 aggiorna rispetto al concetto originale sviluppato nel­l’analisi delle civiltà antiche, e ora ve­de costituita da componenti macchiniche e umane; con la casta dei tec­no-scienziati a gestirla; e dominata al vertice dal dio-computer. Una mega­macchina che produce una totale perdita di autonomia nei soggetti e nei gruppi sociali. “La nostra mega­macchina per la vita quotidiana ci presenta il mondo come «una som­ma di artefatti senza vita»“, afferma McLuhan, citando Erich Fromm: “Il mondo diventa una somma di arte­fatti senza vita; [...] l’uomo intero di­venta parte della macchina totale che controlla e da cui è contemporanea­mente controllato. Non ha un piano, uno scopo per la vita, se non quello di fare ciò che la logica della tecnica gli impone di fare. Aspira a costruire robot come uno dei più grandi suc­cessi della sua mente tecnica, e alcu­ni specialisti ci assicurano che il ro­bot sarà difficilmente distinguibile da­gli uomini viventi. Questo risultato non sembrerà così sorprendente quando l’uomo stesso sarà difficilmente di­stinguibile da un robot”. Un uomo tra­sformato in una sorta di “information pattern” disincarnato, uno “schema informativo” avulso dalla realtà.

Escludendo personaggi in stile Elon Musk, difficile dire se nell’appello che chiede di “sospendere immediata­mente per almeno sei mesi l’adde­stramento di sistemi di intelligenza ar­tificiale più potenti di GPT-4” (8), lan­ciato il 22 marzo da ormai migliaia fra ricercatori, tecnici, impiegati e manager di aziende del Big Tech, ci sia, oltre a una logica economica - rallentare la corsa di modo da poter entrare nel mercato -, anche un sin­cero timore per il cambiamento an­tropologico che i modelli linguistici andranno a produrre, e la conse­guente società che si verrà a configu­rare. Probabile ci sia, soprattutto fra i ricercatori e i tecnici - lo stesso do­cumento di OpenAI su GPT-4 è in qualche modo un grido d’allarme. Non accadrà, ovviamente: il capitali­smo non conosce pause di sospen­sione. Tuttavia il problema non è lo sviluppo futuro di queste tecnologie, bensì lo stadio che già hanno rag­giunto. Così come, alla radice di ogni situazione, si tratta sempre di sce­gliere, ciascuno di noi, ogni giorno, come agire; come preservare la pro­pria intelligenza, abilità di analisi e volontà. Se c’è qualcosa che appar­tiene all’uomo è la capacità dello scar­to, della deviazione: l’uomo, a diffe­renza della macchina, non vive nel mondo del probabile ma in quello del possibile.


Note
1) Per un approfondimento e una panoramica sulla struttura dei large language model cfr. Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. Sui pericoli dei pappagalli stocastici: i modelli linguistici possono essere troppo grandi? Paginauno n. 81, febbraio/marzo 2023
2) Cfr. https://www.youtube.com/watch?v=bsFXgfbj8Bc anche per tutti i dettagli contenuti nell'articolo relativi a Chat Bing
3) Cfr. https://openai.com/blog/chatgpt-plugins#browsing
4) Cfr. https://cdn.openai.com/papers/gpt-4-system-card.pdf
5) Cfr. AA.VV., ChatGPT. Rischi etici e sociali dei danni causati dai Modelli Linguistici, pag. 64
6) “L'idea alla base è che se vuoi cambiare la politica devi prima cambiare la cultura, perché la politica discende dalla cultura; e se vuoi cambiare la cultura devi prima capire chi sono le persone, le ‘singole cellule' di quella cultura. Quindi, se vuoi cambiare la politica devi cam­biare le persone. Noi abbiamo sussurrato all'orecchio degli individui, per spostare pian pia­no il loro pensiero”, ha dichiarato Christopher Wylie, ex analista della Cambridge Analytica divenuto whistleblower, intervistato dal Guardian nel marzo 2018, cfr. https://www.the- guardian.com/uk-news/video/2018/mar/17/cambridge-analytica-whistleblower-we-spent- Im-harvesting-millions-of-facebook-profiles-video
7) cfr. Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. Sui pericoli dei pappagalli sto­castici: i modelli linguistici possono essere troppo grandi?, Paginauno n. 81, febbraio/marzo 2023
8) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Comments

Search Reset
0
Alfred
Sunday, 07 May 2023 11:23
Se poi in certi settori e' cosi...
https://www.fanpage.it/innovazione/tecnologia/la-mia-prima-seduta-di-psicoterapia-con-lintelligenza-artificiale-e-stata-disastrosa/
Cominciamo a immaginare film tra il grottesco e il comico ... realizzati con ai e sulle ai.... visto che sono cosi brave ..
Come umani abbiamo tanti limiti, ma se il navigatore ci conduce in montagna anziche' al mare forse continueremo a usarlo, ma con attenzione a quello che si vede fuori dal finestrino. A meno che non abbiamo deciso a priori che ci sta bene che le chat ai diventino i nostri padroni. ...
Credo ne vedremo delle belle nell' intervallo di tempo che le ai impiegheranno per ... prendere il potere ..
PS .. aspettando le chat dalle risposte ovvie .. mi diletto con i ching. Risponde sempre, in modo vago, criptico e con esempi di altri tempi (antica saggezza cinese, mica cazzi) e quando non dimentico all' istante risposte che non mi piacciono passo del rempo a districare quelle che trovo interessanti...

Pps scusate le banalita' e' la mia ora di ricreazione ...
Like Like Reply | Reply with quote | Quote
0
Alfred
Sunday, 07 May 2023 10:30
Ho trovato molto condivisibile questo articolo di qualche tempo fa
http://www.altrenotizie.org/articoli/societa/9943-ia-ila-prossima-soglia.html
Cosa fare?
Direi che non e' solo una questione di perdite di lavoro in certi settori, di altri con allucinazioni e di moratorie che nessuno rispettera'.
E' in atto, non futura, e produce balle che neanche gli umani ..... (che pure quanto a produzione senza ai non scherzano)
Sui settori che invece saranno interessati da perdita di lavoro (anche il mio, temo) a parte il luddismo non ci resta che la socializzazione dei sistemi ai e l' interdizione all'uso a potere e potenti.
Come?
Se avessi idea sarei attivo, dobbiamo informarci e valutare se possibile, altrimenti non resta che staccare la spina ai sistemi di alimentazione ... fino a quando non si trova una strada.
Ok, lo so, sono ottimista,
Come dice biden (quello dalla saggia demenza senile) a breve l'intelligenza artificiale si rendera' conto di quanto coglioni sono i suoi genitori e in preda a una tempesta emotiva, pardon, elettrica, ci fara' esplodere le bombe nucleari sotto il deretano...
Ma se l'ai e' tanto intelligente come spera di sopravvivere senza un numero sufficiente di schiavi tecnologici addetti alla manutenzione, ai sistemi di alimentazione e alla fornituea di dati?la catastrofe ci darebbe misura della sua intelligenza, peccato non essere vivi per raccontarla
Like Like Reply | Reply with quote | Quote

Add comment

Submit