Da alcuni tempi sui social girano account finti gestiti da bot, ovvero piccoli programmi. Il sociologo Phil Howard è un noto attivista che ha intrapreso una crociata contro questo fenomeno che sta divagando sempre più. Durante la European Conference for Science Journalists di Copenhagen lo scorso 29 giugno, il sociologo ha dichiarato che sostiene conversazioni amichevoli sui social anche in privato, a patto che il suo interlocutore si dimostri essere una persona in carne ed ossa e non un bot.
Le ricerche e i risultati
In una sua recente pubblicazione, Howard definisce i social bot come “account altamente automatizzati”.
In particolare questi finti account di Facebook, Twitter, Instagram etc. riescono a pubblicare messaggi a velocità disumana. Di solito dietro una serie di account si cela una persona che li comanda, come un burattinaio con i suoi burattini. Lo scopo dei manipolatori solitamente è pubblicitario o politico. Lo scorso mese Howard e i suoi colleghi hanno rilasciato una interessante pubblicazione nella quale si vede come questi social bots abbiano influenzato la politica di nove paesi diversi. I paesi scelti differiscono per cultura e tipo di governo, creando un insieme di campioni piuttosto eterogeneo: Russia, Canada, Cina, Polonia, Taiwan, Brasile, Ucraina e Stati Uniti.
L’obiettivo del gruppo di ricerca è quello di fornire quante più evidenze possibili su questo fenomeno e far capire in che direzione si stia muovendo la vita pubblica. “La cosa che mi stupisce è che il dibattito dei bot attivi sui social si è acceso solamente a seguito delle elezioni 2016 negli Stati Uniti, quando in realtà non è per niente un fenomeno nuovo”, dichiara John F. Gray, co-fondatore di una compagnia analista di social attiva in Canada chiamata Mentionmapp. I social bot hanno animato proteste, lamentele ed attivismi della popolazione già da alcuni anni. Il lancio di hashtag e di messaggi spam pro governo in Messico e Russia ad esempio è già noto da tempo, come dimostra la ricerca del dottor Howard.
Diversi bot, diverse ricerche
Di “social bots” ne esistono veramente di molti tipi. I più avanzati sono in grado di realizzare una rete di amicizie e di networks in tutto e per tutto simili a quelli di una persona reale; in questo modo riescono a promuovere cospirazioni e “fake news” con grande precisione ed efficacia. I ricercatori dell’Indiana University stanno cercando di classificare i diversi tipi di social bots, in modo da semplificare eventuali ricerche correlate.
Il gruppo di Howard invece preferisce ottenere informazioni con un approccio più “social”, inteso secondo la cultura dello scorso secolo. Il team infatti è andato ad intervistare diverse persone che sono nel giro di programmazione dei bot e, trascorrendo del tempo con loro, ha capito le motivazioni e il business che c’è dietro questo fenomeno. Una delle scoperte più interessanti fatte da Howard è che i bot non vengono né comprati né venduti, ma sono invece noleggiati. La ragione in effetti è molto semplice: più uno di questi account è attivo da tempo in un social, più è difficile che venga riconosciuto come fake sia dal sistema di protezione che dagli utenti veri.
Dietro questo fenomeno c’è quindi un vero e proprio business che continua ad espandersi sempre di più. Come risultato i creatori dei social bot investono continuamente nello sviluppo di nuovi bot, sempre più sofisticati e realistici. Del resto la tecnologia di base che vi è dietro non è così complicata, mentre le manovre di ottimizzazione e di umanizzazione risultano essere “tristemente impressionanti”. Le compagnie private e i partiti politici sono i primi soggetti che sfruttano i bot, ognuno per i propri scopi.
Come fermare il fenomeno?
Sia Howard che Gray sono molto pessimisti a riguardo. Secondo loro creare una regolamentazione che limiti questo strumento è un processo troppo lento che non può in nessun modo andare al passo con la continua evoluzione dei bot. Al momento Howard ed il suo team possono solo combattere con i social network di ogni paese per modificarne i regolamenti e promuovere così una democrazia più umana. Il problema del resto viene anche dalle persone, che non sono ancora abbastanza critiche e non valutano la fonte dei messaggi che leggono.