Meta, l'azienda responsabile di piattaforme come Facebook e Instagram, sta utilizzando due nuovi bot per esplorare Internet alla ricerca di dati per lo sviluppo e il miglioramento dei suoi modelli di intelligenza artificiale (IA).
Questi nuovi strumenti sono stati implementati silenziosamente alla fine di luglio, come riportato da Business Insider mercoledì scorso (21).
L'introduzione di questi bot segna un passo significativo nella strategia di Meta per ottimizzare i suoi prodotti basati sull'intelligenza artificiale e allo stesso tempo aggirare i blocchi di accesso ai dati imposti dai siti Web che non desiderano condividere le proprie informazioni.

Strumenti di monitoraggio per la raccolta di dati sugli obiettivi
I nuovi bot, denominati “Meta-ExternalAgent” e “Meta-ExternalFetcher”, sono progettati per raccogliere una vasta gamma di dati da tutto il web, necessari per addestrare i modelli di intelligenza artificiale che Meta utilizza nei suoi vari prodotti e servizi.
Il “Meta-ExternalAgent” ha la capacità di indicizzare direttamente i contenuti che trova, svolgendo un ruolo cruciale nella raccolta di informazioni per migliorare le capacità di intelligenza artificiale dell’azienda.
Al contrario, “Meta-ExternalFetcher” è mirato al recupero di informazioni specifiche, con l’obiettivo di migliorare l’assistente AI di Meta e altre funzionalità legate ai suoi prodotti.
Bypassare i blocchi con la tecnologia avanzata
Ciò che rende questi bot particolarmente degni di nota è la tecnologia avanzata che impiegano per eludere i blocchi impostati dai proprietari di siti web che cercano di impedire che i loro dati vengano rubati.
Tradizionalmente, molti siti web utilizzano un file denominato “robots.txt” per limitare o proibire l’accesso da parte di crawler automatici, come quelli utilizzati da Meta.
Tuttavia, i nuovi bot dell'azienda riescono ad aggirare queste restrizioni con grande efficacia, il che ha suscitato preoccupazione tra gli amministratori di siti web e gli esperti di privacy digitale.
Ecco cosa devi sapere oggi:
- WhatsApp rivela l'elenco di chi ti ha bloccato se lo fai
- Videochiamate su Instagram: una guida completa
- URGENTE! La “truffa BIA” miete vittime nell’app bancaria
Efficacia dei nuovi bot di Meta
Secondo un rapporto della startup di rilevamento dei contenuti generati dall'intelligenza artificiale Originality.ai, solo 1,5% dei principali siti web riescono a bloccare il bot "Meta-ExternalAgent".
Il “Meta-ExternalFetcher”, a sua volta, è ancora più efficiente, essendo bloccato da meno di 1% di queste pagine. Questa performance rappresenta un miglioramento significativo rispetto a “FacebookBot”, un vecchio Meta crawler bloccato da circa 10% di siti web.
L’efficacia di questi nuovi bot dimostra la capacità di Meta di adattare le proprie tecnologie per continuare ad accedere ai dati necessari per addestrare i propri modelli di intelligenza artificiale, anche quando si trova di fronte a barriere imposte dagli amministratori del sito web.
L'azienda, guidata da Mark Zuckerberg, sembra impegnata a garantire che i suoi sistemi di intelligenza artificiale possano evolversi e diventare sempre più sofisticati, alimentati da enormi quantità di dati raccolti dal web.
Aggiornamento della politica e reazioni del mercato al target
In risposta alle preoccupazioni sollevate da editori e amministratori di siti web, Meta ha recentemente aggiornato le sue linee guida su come escludere un dominio dall'analisi dei dati da parte dei bot basati sull'intelligenza artificiale dell'azienda.
Secondo un portavoce di Meta, l'azienda si impegna a soddisfare le richieste degli editori che non vogliono che i loro contenuti vengano utilizzati per addestrare i modelli di intelligenza artificiale di Meta.
Questo aggiornamento delle policy aziendali riflette un tentativo di bilanciare le esigenze di gestione dei dati con il rispetto delle preferenze dei proprietari dei siti web.
Questo cambiamento, tuttavia, non è bastato a calmare gli animi di tutti. La capacità dei nuovi bot di aggirare il file robots.txt solleva interrogativi sull'efficacia delle misure di protezione dei dati attualmente in uso sul web.
Inoltre, la capacità di Meta di tracciare e raccogliere dati in modo così esteso potrebbe intensificare il dibattito sulla privacy e sul controllo che le grandi aziende tecnologiche hanno sulle informazioni disponibili su Internet.
Implicazioni per il futuro della raccolta dati
L’introduzione di questi nuovi bot da parte di Meta rappresenta un’evoluzione significativa nel modo in cui l’azienda raccoglie e utilizza i dati per addestrare la propria intelligenza artificiale.
Man mano che le tecnologie di intelligenza artificiale diventano sempre più integrate nei prodotti e nei servizi digitali, cresce anche la domanda di grandi volumi di dati per alimentare questi sistemi.
Di conseguenza, aziende come Meta sono alla ricerca di modi sempre più sofisticati per accedere alle informazioni di cui hanno bisogno, anche in un contesto in cui lockdown e restrizioni sono sempre più comuni.
D'altro canto, questa tendenza potrebbe portare a una maggiore resistenza da parte dei proprietari di siti web, che potrebbero cercare nuovi modi per proteggere i propri contenuti da operazioni di scraping non autorizzate.
Inoltre, la pressione normativa sulle pratiche di raccolta dati delle Big Tech potrebbe aumentare, poiché i governi e le organizzazioni per la privacy cercano di proteggere i diritti degli utenti nell'era digitale.