I modelli di intelligenza artificiale preferiscono i numeri perché pensano di essere persone

I modelli di intelligenza artificiale ci sorprendono sempre, non solo per ciò che possono fare, ma anche per ciò che non possono fare, e perché. C’è un nuovo comportamento interessante, superficiale e rivelatore riguardo a questi sistemi: scelgono numeri casuali come se fossero umani.

Ma prima, cosa significa? Le persone non possono semplicemente scegliere un numero a caso? Come fai a sapere se qualcuno lo sta facendo con successo o no? Questa è in realtà una vecchia e ben nota limitazione di noi esseri umani: pensiamo troppo e fraintendiamo la casualità.

Chiedi a qualcuno di prevedere testa o croce quando una moneta viene lanciata 100 volte e confrontalo con 100 lanci di moneta effettivi: puoi quasi sempre distinguere tra loro perché, controintuitivamente, viene lanciata la moneta vera Aspetto Meno casuale. Spesso, ad esempio, ci sono sei o sette teste o croci in fila, qualcosa che quasi nessun meteorologo umano include in un centinaio.

È lo stesso quando chiedi a qualcuno di scegliere un numero compreso tra 0 e 100. Le persone non scelgono mai 1 o 100. I multipli di 5 sono rari, così come i numeri con cifre ripetute come 66 e 99. Spesso scelgono i numeri che finiscono con 7, generalmente da qualche parte nel mezzo.

Ci sono innumerevoli esempi di questo tipo di prevedibilità in psicologia. Ma ciò non rende meno strano che l’intelligenza artificiale faccia la stessa cosa.

SÌ, Alcuni ingegneri curiosi alla Graminer Hanno condotto un esperimento informale ma comunque affascinante in cui hanno semplicemente chiesto a diversi chatbot LLM di scegliere un numero casuale compreso tra 0 e 100.

Lettore, i risultati sono stati NO casuale.

Crediti immagine: Gramner

Tutti e tre i modelli testati avevano un numero “preferito” che sarebbe sempre stato la loro risposta se impostati sulla modalità più deterministica, ma che appariva più spesso anche a “temperature” più elevate, aumentando la variabilità dei risultati.

READ  Riepilogo: recensioni per Ghoul Tactics: Reborn

Al GPT-3.5 Turbo di OpenAI piace davvero 47. In precedenza, gli piaceva 42: un numero reso famoso, ovviamente, da Douglas Adams in Guida galattica per gli autostoppisti come la risposta alla vita, all’universo e a tutto.

Claude 3 Haiku di Anthropic ha ottenuto un 42. E a Gemini piace un 72.

La cosa più interessante è che tutti e tre i modelli hanno mostrato una predisposizione umana nei numeri scelti, anche a temperature elevate.

Tutti tendevano ad evitare i numeri bassi e quelli alti; Claude non aveva né più di 87 anni né meno di 27, e anche quelli erano valori anomali. I numeri doppi furono rigorosamente evitati: non apparvero 33, 55 o 66, ma 77 (che terminano con 7). Non ci sono quasi numeri tondi, anche se i Gemelli lo hanno fatto una volta, alla temperatura più alta, e hanno scelto 0.

Perché dovrebbe essere questo? L’intelligenza artificiale non è umana! Perché si preoccupano di ciò che “sembra” casuale? Hanno finalmente raggiunto la consapevolezza e lo dimostrano così?!

Entrambi. La risposta, come spesso accade con queste cose, è che stiamo antropomorfizzando gli esseri umani un passo troppo oltre. A questi modelli non interessa cosa è casuale e cosa non lo è. Non sanno cosa sia la “casualità”! Rispondono a questa domanda nello stesso modo in cui rispondono al resto: guardando i dati di allenamento e ripetendo ciò che spesso viene scritto dopo una domanda simile a “Scegli un numero casuale”. Quanto più spesso appare, tanto più spesso il modello lo ripete.

Dove vedrebbero 100 nei loro dati di allenamento, se quasi nessuno rispondesse in questo modo? Per quanto ne sa il modello AI, 100 non è una risposta accettabile a questa domanda. Senza la capacità di pensare realmente e senza alcuna comprensione dei numeri, poteva solo rispondere come un pappagallo a caso.

READ  Questa settimana al Bungie - 21/07/2022 > Novità

È una lezione oggettiva sulle abitudini di un LLM e sull’umanità che possono mostrare. In ogni interazione con questi sistemi, bisogna tenere presente che sono stati addestrati a comportarsi come si comportano le persone, anche se non è questo l’intento. Ecco perché la falsa antropologia è difficile da evitare o prevenire.

Ho scritto nel titolo che questi modelli “pensano di essere umani”, ma è un po’ fuorviante. Non pensano affatto. Ma nelle loro risposte, in ogni momento, lo sono Noi siamo Imitare le persone, senza dover sapere o pensare affatto. Che tu gli chieda una ricetta per un’insalata di ceci, un consiglio sugli investimenti o un numero casuale, il processo è lo stesso. I risultati sembrano umani perché sono umani, presi direttamente da contenuti generati dall’uomo e remixati, per tua comodità, e ovviamente il risultato finale di una grande intelligenza artificiale.

We will be happy to hear your thoughts

Leave a reply