Elon Musk contro il data scraping su Twitter: il colosso di Tesla ha imposto temporaneamente dei limiti sul suo social network per contrastare l’alto numero di appropriazione indebita di dati.
Occorre però partire dall’inizio.

Data scraping: cos’è
Non è la prima volta che si parla di dati in pericolo. Uno di questi pericoli è, appunto, il data scraping, un’attività parlante che parte proprio da un discorso di ‘raschiamento’, o rosicchiamento: quello dei dati delle persone. Il data scraping si effettua mediante strumenti (tools) che navigano in modo autonomo sui siti copiando e incollando dati.
Si badi che il web scraping in sé non è un’attività illegale. Google, per esempio, usufruisce dei dati presi dai siti web per analizzarli e indicizzarli. Il data scraping non è illegale quando lo si utilizza per produrre delle stime, dati statistici o produrre contenuti a fine di studio, non commerciali.
To address extreme levels of data scraping & system manipulation, we’ve applied the following temporary limits:
— Elon Musk (@elonmusk) July 1, 2023
– Verified accounts are limited to reading 6000 posts/day
– Unverified accounts to 600 posts/day
– New unverified accounts to 300/day
Il data scraping diventa illegale, però, quando il tool adibito al copia e incolla dei dati appartenenti ai vari siti si verifica anche in occasioni in cui questi siti hanno divieti ben precisi in merito, non a caso è ormai diffuso l’uso di CAPTCHA o i vari ‘non sono un robot’. E diventa illegale quando i dati raccolti vengono usati per produrre contenuti a fini di lucro, violando di netto il diritto d’autore, oppure quando i tools prelevano numeri e contatti da un sito (aziendale, per esempio).
Twitter contro il data scraping
Elon Musk ha quindi deciso di combattere il data scraping su Twitter imponendo dei limiti alla navigazione per account, sia ufficiali che non ufficiali.
I limiti comprendono: 6000 tweet visibili al giorno per gli account verificati; 600 per quelli non verificati; 300 per gli account nuovi non verificati. Questo allo scopo di limitare l’attività dei tools volti al data scraping da parte delle aziende e proteggere l’esperienza di navigazione di chi i social li usa con frequenza.