Il nuovo store di ChatGPT prometteva agli utenti di personalizzare il bot a proprio piacimento ma a meno di un paio di giorni dal suo lancio sul mercato già proliferano le “fidanzate virtuali”, in aperta violazione delle regole di OpenAI che vieta i bot “dedicati alla promozione della compagnia romantica o allo svolgimento di attività diversamente regolamentate”.
Il servizio, annunciato dall’azienda a novembre e disponibile da questa settimana, è raggiungibile solo dagli utenti che sottoscrivono un abbonamento. L’obiettivo dello Store è dare la possibilità a tutti gli utenti di personalizzare il proprio Generative Pre-Trained Transformer (GPT), il modello di simulazione del linguaggio alla base del bot, una sorta di piccolo cervello digitale pensato per fargli eseguire a scopi specifici. Un’opportunità incredibile, che però alcuni hanno utilizzato per trovarsi una compagnia virtuale.
Come mostrano i nostri screen, realizzati a un paio di giorni dal lancio del servizio, cercando la parola “girlfriend” (fidanzata, in inglese) appaiono almeno una decina di bot che simulano conversazioni con un partner. Lo stesso accade cercando la parola “boyfriend” (fidanzato, in inglese).
Tutto questo però viola apertamente le regole di ChatGPT che intende prevenire potenziali conflitti con altre aziende, a cui potrebbe riferirsi l’espressione un po’ criptica “attività diversamente regolamentate”. I chatbot che simulano relazioni con partner umani infatti costituiscono un segmento importante (e lucroso) del mercato digitale.
L’app Replika ad esempio, che conta più di 10 milioni di download, consente agli utenti di creare simulatori digitali basati sull’intelligenza artificiale e che si comportino da amici, partner, coniugi, fratelli, etc. Sempre ovviamente virtuali. Non solo: secondo i dati raccolti dal portale specializzato data.ai e pubblicati da Quartz, 7 delle 30 app di chatbot intelligenti scaricate negli Usa nel 2023 offrivano proprio questo genere di servizio.
Leggi l'articolo originale su TPI.it