Sempre più persone fanno proposte oscene agli assistenti virtuali come Siri
I programmatori di algoritmi stanno investendo diverso tempo per far sì che gli assistenti possano schivare tentativi di flirt e vere e proprie molestie sessuali
Negli ultimi anni, specialmente nei paesi di lingua inglese,
gli assistenti virtuali come Siri per la Apple o Cortana per Microsoft sono
diventate sempre più diffuse e utilizzate, aiutando via smartphone i loro
proprietari in moltissime attività, dalla ricerca di un ristorante alla
pianificazione dell’agenda, dai conti bancari alle ricette.
Se però questi programmi dotati di intelligenza artificiale,
anche noti come bot, stanno
lentamente sostituendo segretari e assistenti umani, insieme alle mansioni da
loro svolte si stanno diffondendo anche comportamenti poco gradevoli di cui i
loro “colleghi” reali sono a volte vittime.
In particolare, come afferma Ilya Eckstein, amministratore
delegato di Robin Labs, bot che aiuta camionisti, tassisti e autisti
a trovare il percorso migliore, ultimamente i programmatori di algoritmi stanno
investendo diverso tempo a far sì che gli assistenti possano schivare tentativi
di flirt, domande personali e vere e proprie molestie sessuali.
“La gente vuole flirtare, sognare una ragazza servile o
uno schiavo sessuale. Può trattarsi di una cosa fatta solo per ridere, o anche qualcosa
di più profondo”.
Secondo Eckstein, il 5 per cento delle interazioni nel loro
database sono classificate come sessualmente esplicite, anche se egli ritiene
che il numero reale sia molto più elevato a causa della difficoltà di
identificare automaticamente questo genere di conversazioni.
Anche una programmatrice di Cortana di Microsoft, Deborah
Harrison, ha dichiarato all’inizio di quest’anno che “un volume notevole
di domande fatte a Cortana riguardano la sua vita sessuale. Non è il tipo di
interazione che vogliamo incoraggiare”.
Alcuni utenti sembrano utilizzare questi software per
sfogare fantasie violente di controllo e dominio, mentre c’è anche chi cerca di
stabilire un rapporto umano con il bot,
nonostante esso sia chiaramente un prodotto artificiale.
Tra i programmatori di Intelligenza artificiale il dibattito
sul fatto che i bot debbano presentarsi come esseri umani o macchine è ancora
in corso: Google per esempio ha volutamente evitato di umanizzare il suo Google
Assistant, che pur possedendo una voce femminile non presenta una “personalità
distinta”, ma si tratta di un’eccezione.
“C’è un retaggio riguardo a ciò che le donne dovrebbero
essere nel loro ruolo di segretarie”, ha detto Harrison, “Abbiamo
voluto essere molto attenti che Cortana non fosse asservita in una maniera che
perpetuasse alcune dinamiche sociali che non apprezzavamo. Dobbiamo gettare le
basi per chi verrà dopo di noi”.
Un esempio di alcune conversazioni tra un utente e Siri, l’assistente di Apple:
(Credit: Quartz)