Meta, compania responsabilă pentru platforme precum Facebook și Instagram, folosește doi roboți noi pentru a accesa internetul în căutarea datelor pentru dezvoltarea și îmbunătățirea modelelor sale de inteligență artificială (AI).
Aceste noi instrumente au fost implementate în liniște la sfârșitul lunii iulie, după cum a raportat Business Insider miercurea trecută (21).
Introducerea acestor roboți marchează un pas semnificativ în strategia Meta de a-și optimiza produsele bazate pe inteligență artificială, ocolind și blocurile de acces la date impuse de site-urile web care nu doresc să-și partajeze informațiile.

Instrumente de urmărire pentru colectarea datelor despre obiective
Noii roboți, numiți „Meta-ExternalAgent” și „Meta-ExternalFetcher”, sunt proiectați pentru a colecta o gamă largă de date de pe web, necesare pentru a antrena modelele AI pe care Meta le folosește în diferitele sale produse și servicii.
„Meta-ExternalAgent” are capacitatea de a indexa direct conținutul pe care îl găsește, jucând un rol crucial în culegerea de informații pentru a îmbunătăți capacitățile AI ale companiei.
În schimb, „Meta-ExternalFetcher” are ca scop obținerea de informații specifice, cu scopul de a îmbunătăți asistentul AI al Meta și alte caracteristici legate de produsele sale.
Ocolirea blocajelor cu tehnologie avansată
Ceea ce face ca acești roboți să fie deosebit de remarcabili este tehnologia avansată pe care o folosesc pentru a evita blocurile create de proprietarii de site-uri web care caută să împiedice eliminarea datelor lor.
În mod tradițional, multe site-uri web folosesc un fișier numit „robots.txt” pentru a restricționa sau a interzice accesul crawlerelor automate, cum ar fi cele utilizate de Meta.
Cu toate acestea, noii roboți ai companiei sunt capabili să ocolească aceste restricții cu mare eficacitate, ceea ce a stârnit îngrijorări în rândul administratorilor de site-uri web și al experților în confidențialitate digitală.
Trebuie să știi asta astăzi:
- WhatsApp dezvăluie lista celor care te-au blocat dacă faci asta
- Apeluri video pe Instagram: un ghid complet
- URGENT! „Înșelătoria BIA” revendică victime în aplicația bancară
Eficacitatea noilor roboti Meta
Potrivit unui raport al startup-ului de detectare a conținutului generat de AI, Originality.ai, doar 1.5% dintre site-urile de top reușesc să blocheze botul „Meta-ExternalAgent”.
„Meta-ExternalFetcher”, la rândul său, este și mai eficient, fiind blocat de mai puțin de 1% din aceste pagini. Această performanță reprezintă o îmbunătățire semnificativă în comparație cu „FacebookBot”, un meta crawler mai vechi care este blocat de aproximativ 10% de site-uri web.
Eficacitatea acestor noi boți demonstrează capacitatea Meta de a-și adapta tehnologiile pentru a continua să acceseze datele necesare pentru a-și antrena modelele AI, chiar și atunci când se confruntă cu barierele impuse de administratorii site-urilor web.
Compania, condusă de Mark Zuckerberg, pare să se angajeze să se asigure că sistemele sale AI pot evolua și deveni din ce în ce mai sofisticate, alimentate de cantități mari de date colectate de pe web.
Actualizarea politicii și reacțiile pieței la țintă
Ca răspuns la preocupările ridicate de editori și administratorii de site-uri web, Meta și-a actualizat recent liniile directoare cu privire la modul de a exclude un domeniu de la colectarea datelor de către roboții AI ai companiei.
Potrivit unui purtător de cuvânt al Meta, compania se angajează să onoreze solicitările editorilor care nu doresc ca conținutul lor să fie folosit pentru a antrena modelele AI ale Meta.
Această actualizare a politicilor companiei reflectă o încercare de a echilibra nevoile sale de date cu respectarea preferințelor proprietarilor de site-uri web.
Cu toate acestea, această schimbare nu a fost suficientă pentru a calma spiritele tuturor. Capacitatea noilor roboți de a ocoli fișierul robots.txt ridică întrebări cu privire la eficacitatea măsurilor de protecție a datelor utilizate în prezent pe web.
În plus, capacitatea Meta de a urmări și de a colecta date atât de extins ar putea intensifica dezbaterea privind confidențialitatea și controlul pe care marile companii de tehnologie îl au asupra informațiilor disponibile pe internet.
Implicații pentru viitorul colectării datelor
Introducerea de către Meta a acestor noi roți reprezintă o evoluție semnificativă a modului în care compania colectează și utilizează date pentru a-și antrena AI.
Pe măsură ce tehnologiile AI devin mai integrate în produsele și serviciile digitale, crește și cererea pentru volume mari de date pentru a alimenta aceste sisteme.
Drept urmare, companii precum Meta caută modalități din ce în ce mai sofisticate de a accesa informațiile de care au nevoie, chiar și într-un mediu în care blocajele și restricțiile sunt din ce în ce mai frecvente.
Pe de altă parte, această tendință ar putea duce la o rezistență mai mare din partea proprietarilor de site-uri web, care pot căuta noi modalități de a-și proteja conținutul împotriva răzuirii neautorizate.
În plus, presiunea de reglementare asupra practicilor Big Tech de colectare a datelor poate crește pe măsură ce guvernele și organizațiile de confidențialitate încearcă să protejeze drepturile utilizatorilor în era digitală.