La Repubblica Popolare Cinese è ormai una fonte inesauribile di notizie concernenti l’implementazione pratica delle più disparate tecnologie ad impatto privacy. Il tutto sempre – ça va sans dire – per utilizzi potenziali su vastissima scala.

Nei soli ultimi giorni, due news in particolare meritano di essere citate.

La polizia cinese ha incominciato ad utilizzare degli occhiali intelligenti dotati di sistema di riconoscimento facciale (leggi qui su La Stampa) nella stazione di Zhengzhou: 33 persone sono state riconosciute ed arrestate in un solo giorno. Presto LLV, l’azienda produttrice degli smart glasses, potrebbe ricevere ingenti ordinativi dal governo di Pechino, e non solo.

Lo Institute of Psychology of Chinese Academy of Sciences ha sviluppato un sistema di intelligenza artificiale in grado di scandagliare Weibo, il social di micro-blogging (una sorta di ibrido tra Twitter e Facebook) che conta circa 380 milioni di utenti di cui ben 160 lo utilizzano quotidianamente.

L’intelligenza artificiale in questione si districherebbe agevolmente tra una mole impressionante di dati riuscendo ad individuare i post (o la concatenazione di post o di commenti) che rispondono al profilo di un’aspirante suicida. Quando il sistema riconosce il pericolo, invia tempestivamente un messaggio di incoraggiamento all’utente e lo invita a chiamare quanto prima il centro prevenzione suicidi locale.

L’intelligenza del sistema crescerà gradualmente, alimentandosi ogni giorno con miliardi di post relativi ad un’utenza pari a più del doppio della popolazione italiana. Monitorando tutto quello che transita dal social network, il sistema affinerà via via la propria capacità di riconoscere quando un determinato linguaggio (o un determinato silenzio) è sintomatico di un disagio che può condurre ad un gesto suicida. Ed agirà di conseguenza.

Il Governo cinese supporta lo sviluppo di questo sistema per porre freno ad una piaga sociale: nel 2017 il suicidio è risultato essere la prima causa di morte per i giovani tra i 15 e i 35 anni.

La speranza è che l’intelligenza artificiale che scandaglia il web non sia utilizzata per altre finalità, magari per prevenire – con input localizzante ed automatizzato alle forze dell’ordine – un potenziale dissenso o una manifestazione di pensiero poco gradita.