L’errore è l’unico certificato di autenticità rimasto all’uomo per affermare la propria natura di fronte all’AI

L’Em Dash Dilemma

Ad oggi, la precisione e la perfezione sintattica sono diventate la manifestazione visibile di un possibile utilizzo dell’AI in fase di scrittura: ecco così che una lineetta di troppo può iniziare a insospettire il lettore dando vita a un vero e proprio atto di indagine, che trasforma la lettura in ricerca e analisi di elementi “sospetti”. 

Si tratta del cosiddetto “Em Dash Dilemma”. La lettura — salvo qualche considerevole eccezione —  non rappresenta più un piacere, un godimento estetico, quanto piuttosto una ricerca attiva degli automatismi algoritmici. Se un testo appare troppo pulito o troppo corretto, nel lettore scatta un allarme silenzioso poiché l’uso di determinati elementi sintattici e di semiotica è ormai l’impronta digitale caratteristica dell’AI. 

Il cuore dell’Em Dash Dilemma è proprio questo: un segno di punteggiatura come la lineetta è ormai talmente abusato dai Large Language Models (LLM), che l’essere umano sta iniziando a rifuggirne l’utilizzo. Una sorta di autodifesa cognitiva, dunque, che scaturisce da un paradosso assimilativo: i modelli linguistici sono addestrati a partire da modelli di scrittura basati sulla produzione umana, produzione che ora gli stessi uomini stanno abbandonando per paura di essere confusi con le loro imitazioni. 

Tutto ciò supporta il concetto per cui “Noi plasmiamo i nostri strumenti, e a loro volta i nostri strumenti plasmano noi”, dimostrando che i grandi strumenti di intelligenza artificiale non prendono vita da un determinismo tecnologico o da una costruzione sociale, bensì da un processo di coevoluzione tra uomo e macchina che allo stesso tempo sta riscrivendo la natura della comunicazione verbale. Questo dilemma nell’uso delle lineette (em dash) è infatti soltanto un piccolissimo esempio del modo in cui l’AI sta cambiando, quasi in maniera impercettibile, la nostra scrittura e la nostra abilità nel parlare e nel pensare. 

Secondo un articolo di UCStrategies, i sistemi di rilevamento dell’intelligenza artificiale non riescono a segnalare in maniera adeguata ed efficiente la differenza tra un testo generato dall’AI e la scrittura umana. È per questo che i testi di diversi autori vengono erroneamente segnalati come generati dall’AI pur utilizzando una punteggiatura corretta, perché definiti “troppo strutturati” e “troppo raffinati”: gli scrittori professionisti vengono quindi, alle volte, penalizzati per l’utilizzo di quella stessa scrittura formale che in passato è servita ad addestrare l’AI.

La stilometria dell’AI

Daphne Ippolito, ricercatrice di Google Brain e assistente presso la Carnegie Mellon University di Pittsburgh, ha creato un gioco per mettere alla prova l’occhio umano nel riconoscere frasi generate dall’AI. In particolare, il gioco è in grado di valutare quante frasi un computer può generare prima che un giocatore si accorga che non si tratta di un testo umano. Una delle conclusioni tratte dall’analisi dei risultati di questo gioco è stata la scoperta del fatto che le persone migliorano gradualmente nel tempo nel riconoscere contenuti testuali generati artificialmente.  

Infatti, alcuni studi recenti della University College Cork hanno cercato di individuare le sottili differenze che esistono tra la scrittura AI e quella umana: nonostante la fluidità, l’AI soffre di una “piattezza stilometrica”, e tende cioè a essere ripetitiva nella struttura dei paragrafi e dei connettivi logici. Mentre un umano varia drasticamente la lunghezza delle frasi basandosi sulle emozioni del discorso, l’AI tende a una regolarità statistica e meccanica che, alla lunga, la tradisce. Seppur perfetti, questi discorsi mancano infatti di quelli che Suresh Sood — uno dei maggiori esperti di big data e machine learning — chiama “marcatori di esperienza vissuta”: per un umano, una pausa di questo tipo (—) implica un respiro, una modifica al ritmo della frase; per l’AI, invece, si tratta di un semplice connettore statistico basato sulla frequenza, e perde quindi tutta quell’emotività legata all’esperienza sensoriale.

Il Reverse Turing Test e l’estetica dell’errore

In risposta alla freddezza e alla smisurata perfezione dell’AI, l’essere umano ha iniziato così a ricercare una sintassi più sporca, con strutture grammaticali meno complesse e con refusi lasciati volutamente nel discorso per rivendicare la propria identità – e umanità. Questa dinamica, questa forma di resistenza stilistica, fa sì che l’uomo modifichi il proprio comportamento naturale a scapito della paura di una possibile catalogazione “non-umana”: si tratta del Reverse Turing Test, o test di Turing inverso

Se il test originale di Alan Turing veniva utilizzato per determinare se una macchina potesse esibire un comportamento intelligente e ingannarci sembrando umana, oggi è esattamente l’opposto. Un test di Turing inverso è, infatti, un test di Turing in cui:

Ad oggi, quindi, siamo noi umani a dover fallire volontariamente il test — e quindi a dover forzare lo sbaglio, l’imperfezione, la sfumatura, che pur tanto ci caratterizzano — per provare la nostra natura ai nostri simili, esasperando sempre di più una cultura del sospetto che non fa altro che privare la scrittura di tutta la sua necessaria complessità. 

Il Bias di Attibuzione

Questa significativa trasformazione sociologica altera inoltre la nostra percezione del valore di un testo, attivando il cosiddetto bias di attribuzione: quando si sospetta che un contenuto sia generato con l’AI, la nostra mente ne declassa automaticamente il valore emotivo e qualitativo. Ne è una prova lo studio della Princenton University guidato da Meredith Martin e Wouter Haverals, che ha fornito alcuni testi identici a 556 persone e a un gruppo di studenti di giurisprudenza chiedendo loro di giudicarne il contenuto (alcuni di questi testi erano stati etichettati come “AI”, mentre altri come scritti da un umano). 

Il risultato ha evidenziato che i testi etichettati come “scritto dall’AI” sono stati giudicati significativamente meno creativi e profondi rispetto a quelli etichettati come “scritti da un essere umano”, anche quando a giudicarli erano gli stessi modelli di intelligenza artificiale. 

Il timore del bias di attribuzione ci sta facendo dubitare della nostra capacità di esprimerci con eleganza sintattica, e rischia di farci rifugiare in un compromesso dovuto a un pregiudizio sociale: quello di scambiare la chiarezza della sintassi con imperfezioni volute e confusionarie, nella speranza che un testo meno fluido risulti più sincero e umano.

Avatar mariachiaraborrelli

Pubblicato da:

Lascia un commento