Come scrivere ai tempi dell'intelligenza artificiale
Ce lo siamo chiesto tutti, non neghiamolo.
Come sarebbe scrivere un best seller da mille milioni di copie senza doversi scervellare su trama, personaggi, e hai messo al protagonista il maglione di cashmire, ma prima hai detto che era luglio e sei in Ghana, e la protagonista ha posato un bicchiere che non aveva mai preso in mano, e poi questo personaggio secondario, non hai detto nel capitolo 2 che si erano visti tre volte in totale con Tizio J e ora mi dici che hanno fatto le elementari insieme? Senza contare lo stile, il tono di voce, il punto di vista, la voce narrante, il ritmo e compagnia bella cantante, che sono le cose che non si leggono ad alta voce ma si sentono con il naso.
L'abbiamo pensato tutti. A ChatGPT tutte queste cose complicate dovrebbero fare un baffo, oder? [Ma ChatGPT ce li ha i baffi?]
E allora ci ho provato pure io.
A scrivere una storiella, mica un romanzo, con Chat GPT. Sono rimasta umile.
Risultato: meh.
Sì, la storia filava anche (non in maniera eccelsa, ma aveva comunque un senso), ma era comunque insapore nella sua stessa essenza come la fragole dopo questi giorni di pioggia.
Ho letto, proprio ieri (quindi al momento della pubblicazione di questo articoletto potrebbe essere tre mesi fa, nda) di un tizio XY, niente meno il "padre" degli ebook (che lanciò in Italia gli ebook qualcosa come 8 anni prima di Amazon, per dare un'idea del personaggio) che ha scritto in otto ore un libro di 192 pagine, su cosa non so. Ha istruito molto dettagliatamente Chat GPT, gli ha fatto leggere estratti di libri da lui scritti in precedenza per consentire all'AI di replicare lo stile e alla fine, in un processo molto meno automatico di quanto potrebbe sembrare da queste poche righe, è riuscito a creare un testo di cui lui stesso dichiara: "non riesco più a riconoscere le parti scritte interamente da me e quelle scritte da ChatGPT."
Non so se sia una cosa buona, o meno. Quello che non mi sento di esprimere al momento è un giudizio lapidante e sommario che non tenga conto dell'estrema complessità della materia.
Quindi vado con il secondo aneddoto. Un mio ex collega sta seguendo un MOOC di economia aziendale, materia che non è esattamente leggera e immediata all'apprendimento, soprattutto per uno che la scuola l'ha finita da un paio di decenni. Siccome il professore in questione ha un effetto particolarmente soporifero intessuto nel suo stile personale di insegnamento, collega X decide di prendere una scorciatoia e chiedere un riassunto più conciso e pregnante a ChatGPT su certe formule i cui risultati non gli tornano. Formule intendo formule matematiche che devono calcolare valori economici, non abracadabra e wingardium leviosa. Possiamo generalizzare la percezione di questo tipo di informazione dicendo che c'è poco spazio per l'interpretazione.
Ecco come è andata.
Collega pone domanda a ChatGPT che risponde in maniera errata - e non nell'esecuzione del calcolo matematico, ma nella formula stessa di partenza. Collega X ripone la domanda segnalando incongruenza. ChatGPT si scusa e rettifica. Ma manca ancora qualcosa. Collega X chiede: non dovresti considerare anche il coefficiente della malora in questa formula? (Risposta sottointesa: sì, cazzo! Vi ricordate due paragrafi sopra quando dicevo che non c'è spazio per l'interpretazione? Ecco, questo intendevo!) Risposta di ChatGPT: hai ragione, scusami, ecco il risultato esatto. Prot.
Non è una palla. Ho gli screen della conversazione. Giurin giurella. (Ormai le prove dei fatti si basano sugli screenshot, ma questo è un altro problema.)
Cosa possiamo dedurre da queste due esperienze?
Premettiamo un dettaglio noto. ChatGPT (e per quanto ne so altri programmi di AI simili) non si inventano nulla (per ora), si limitano a replicare e riproporre informazioni trovate sul web. Quindi ChatGPT in sé non è stupida, si è limitata a restituire una formula raccattata del web. Che quella formula non fosse corretta non poteva aver modo di saperlo (fino a quel momento).
Se uno mi scrive sul web che la circonferenza di un cerchio di calcola con 2r perché quella mattina s'è svegliato storto, ChatGPT potrebbe ripropormi che la misura della circonferenza si calcoli in effetti moltiplicando 2 per il valore del raggio, e basta. Peccato non sia così e ne manchi un pezzo. Ovvero quel benedettissimo pigreco che mi renderebbe la formula corretta (C=2*pigreco*r). Perchè in effetti c'è un bel ragionamento che dimostra la veridicità della formula. Ma Chat GPT come può saperlo? E io come posso non saperlo?
[Nota prima che mi azzanniate alla giugulare. L'esempio qui sopra è una ipersemplificazione del problema per farvi capire le potenziali stratificazioni di un disastro. L'AI aggrega dati e propone risposte basate sull'aggregazione di questi dati, eppure come è successo a collega X non può certo validare la veridicità di questi dati. E vi aprirò un ulteriore vaso di Pandora, pensate alla circolazione di fake news, che sono la versione 4.0 del gossip delle vecchie del paese basate sul nulla o su una falsata percezione della realtà insita nel pettegolante, nel migliore dei casi, e su una malizia ben direzionata, nel peggiore.]
E quindi passiamo alla prima conclusione. ChatGPT può risolvere i problemi, ma non ha modo (per ora) di verificare la veridicità o la correttezza della soluzione (vedi esempio di collega X). Il che capite anche voi, è un problema non proprio minore.
E quindi si apre un nuovo interrogativo: quali sono le reali potenzialità dell'intelligenza artificiale se i soggetti che ne fanno uso non sanno verificare i risultati alle loro domande?
Trasposto all'argomento del titolo: posso veramente scrivere un libro se non so padroneggiare la grammatica? O se alla ChatGPT dessi in pasto tutta la bibliografia di Tolkien e poi gli chiedo di creare un libro fantasy mastodontico e coinvolgente e epico sarei poi in grado di valutare la qualità di quanto ChatGPT mi spara fuori?
Vi lascio la domanda come spunto di riflessione.
La verità è che io, di mio, una risposta non ce l'ho, ma ho qualche considerazione sullo strumento e sulle sue potenzialità.
Il potenziamento degli strumenti a disposizione di uno scrittore (o di qualsiasi altra professione che richiede più di una sequenza ripetitiva di azioni) non lo mette al riparo dallo sforzo per evolvere, di migliorarsi e detto in slang moderno, di essere sul pezzo. Tradotto: solo perchè ChatGPT mi può creare un testo strutturalmente e grammaticalmente corretto, non significa che io possa sedermi ad aspettare il risultato sorseggiano vino di prugne cinese.
Faccio un altro esempio. I siti di traduzioni automatica. Io guardo abitualmente drammi coreani e cinesi con i sottotitoli in inglese (quelli italiani 90 su 100 fanno cag**e). Leggevo su una di queste piattaforme che come direttiva per le persone che si dedicano alla traduzione vige il divieto di utilizzo di piattaforme per la traduzione automatica. Che per me è una stronzata colossale. Chiariamo. Pensare di tradurre un episodio da un'ora con il traduttore automatico senza controllare minimamente è da folli e anche un po' da kamikaze (per non dire idioti). Ma anche vietarlo a prescindere non è che sia questo gran pozzo di acume. Io ho una laurea in lingue (NON traduzione e interpretazione) e ho avuto la sfortuna di dover tradurre testi da X a Y e viceversa. E' un lavoro lento e mal retribuito in cui l'interpretazione la fa da padrone. E ancora non esistevano i traduttori automatici. Altrimenti, e non mi vergogno a dirlo, li avrei usati alla grande. Come primo step. Da rivedere e aggiustare mano a mano si scorre il testo. Perché laddove il primo Google Translator mi traduceva "tu sei" con " you six" (ora abbiamo fatto passi avanti, ma problemi analoghi esistono lo stesso, e sempre esisteranno, per la natura stessa del lavoro), entrava in gioco la mia competenza a raddrizzare le cose. Mia madre avrebbe potuto accettare la traduzione perché non conosce una parola d'inglese, ma io no. Io ho le competenze necessarie per gestire in maniera proficua l'utilizzo del mezzo. Demonizzare quindi lo strumento a prescindere mi sembra una visione assolutamente antiquata. Perché chiunque faccia il traduttore di professione, o anche non di professione, ma che abbia un minimo di etica del lavoro, non presenterebbe mai un testo tradotto automaticamente senza controllarlo, scorrerlo parola per parola e aggiustarlo (e poi 9 su 10 va a finire che lo rivolti come un calzino e di quello che il traduttore ha fatto in automatico resta forse una virgola). Ma la prima versione della traduzione, fatta in maniera chiaramente grossolana, costituisce un canovaccio e anche un risparmio di tempo nel dover digitare a mano il testo tradotto da zero. Se uno non ha etica professionale, o gli pesa il culo e pensa di cavarsela senza muovere un dito il problema non è certo dello strumento AI, quanto piuttosto della persona stessa. Sarebbe come vietare l'uso della calcolatrice in calcoli complessi, perché "è una scorciatoia." Però dall'altra parte vale il detto: fidati, ma controlla.
Come avere una Ferrari senza la patente. Se ci salgo ingrano la marcia e do gas senza saperla portare è facile che vada a finire male.
E sale l'obiezione, vostro onore. Di questo passo non si riconosceranno più le opere autentiche da quelle generate dal computer. Penso alle opere d'arte e alle fotografie che sono arrivate anche ad essere battute in case d'asta prestigiose. E quanto mancherà prima che questa intelligenza artificiale si appropri anche della letteratura? La cosa sembra inquietante, ma prima di spingersi troppo oltre con considerazioni apocalittiche dovremmo anche fermarci a considerare che l'input per la creazione di tali opere viene ancora una volta dall'uomo, almeno per ora.
Forse un giorno l'AI creerà qualcosa spontaneamente. Diventerà creativa - che no, non è la stessa cosa. Ma intanto l'uomo che cosa avrà fatto?
Il punto credo sia proprio quello. L'intelligenza artificiale è uno strumento potentissimo che può aiutare a risparmiare tempo e certi lavori macchinosi e noiosi che sono tuttavia necessari nella stesura di un testo. Ma se manca un cervello che sorveglia la direzione e la validità del risultato prodotto, i risultati non potranno che essere insoddisfacenti. E non perché diventerà difficile distinguere la replica dall'originale, quanto piuttosto perché l'originale in mancanza di stimoli necessari all'evoluzione finirà probabilmente per accartocciarsi su se stesso. Ma sarà solo colpa dell'AI?
Bạn đang đọc truyện trên: AzTruyen.Top