Meta, компанія, відповідальна за такі платформи, як Facebook та Instagram, використовує двох нових ботів для сканування інтернету в пошуках даних для розробки та вдосконалення своїх моделей штучного інтелекту (ШІ).
Ці нові інструменти були непомітно впроваджені наприкінці липня, як повідомляв Business Insider минулої середи (21).
Впровадження цих ботів знаменує собою важливий крок у стратегії Meta щодо оптимізації продуктів на базі штучного інтелекту, а також обходу блокувань доступу до даних, що накладаються веб-сайтами, які не бажають ділитися своєю інформацією.

Інструменти відстеження для збору даних про цілі
Нові боти під назвою «Meta-ExternalAgent» та «Meta-ExternalFetcher» призначені для збору величезного масиву даних з усієї мережі, необхідних для навчання моделей штучного інтелекту, які Meta використовує у своїх різних продуктах та послугах.
«Meta-ExternalAgent» має можливість безпосередньо індексувати знайдений контент, відіграючи вирішальну роль у зборі інформації для покращення можливостей компанії в галузі штучного інтелекту.
На відміну від цього, «Meta-ExternalFetcher» спрямований на отримання певної інформації з метою покращення помічника штучного інтелекту Meta та інших функцій, пов’язаних з його продуктами.
Обхід блокувань за допомогою передових технологій
Особливо помітними цих ботів роблять передові технології, які вони використовують для обходу блокувань, встановлених власниками веб-сайтів, які прагнуть запобігти крадіжці їхніх даних.
Традиційно багато веб-сайтів використовують файл під назвою «robots.txt», щоб обмежити або заборонити доступ автоматичним сканерам, таким як ті, що використовуються Meta.
Однак нові боти компанії здатні обходити ці обмеження з великою ефективністю, що викликало занепокоєння серед адміністраторів веб-сайтів та експертів з цифрової конфіденційності.
Ви повинні знати це сьогодні:
- WhatsApp показує список тих, хто вас заблокував, якщо ви це зробите
- Відеодзвінки в Instagram: повний посібник
- ТЕРМІНОВО! «Шахрайство BIA» заявляє про жертви в банківському додатку
Ефективність нових ботів Meta
Згідно зі звітом стартапу Originality.ai, що спеціалізується на виявленні контенту, створеного штучним інтелектом, лише 1,51 TP3T провідних вебсайтів вдається блокувати бота «Meta-ExternalAgent».
З іншого боку, Meta-ExternalFetcher ще ефективніший, його блокують менше ніж 1% таких сторінок. Ця продуктивність являє собою значне покращення порівняно з FacebookBot, старішим сканером Meta, який блокується приблизно 10% сайтів.
Ефективність цих нових ботів демонструє здатність Meta адаптувати свої технології для продовження доступу до даних, необхідних для навчання моделей штучного інтелекту, навіть стикаючись із перешкодами, що встановлюються адміністраторами веб-сайтів.
Компанія, очолювана Марком Цукербергом, схоже, прагне забезпечити розвиток та вдосконалення своїх систем штучного інтелекту, використовуючи величезні обсяги даних, зібраних з усього Інтернету.
Оновлення політики та реакція ринку на ціль
У відповідь на занепокоєння видавців та адміністраторів веб-сайтів, Meta нещодавно оновила свої рекомендації щодо того, як виключити домен зі збору даних ботами компанії на базі штучного інтелекту.
За словами речника Meta, компанія прагне задовольняти запити видавців, які не хочуть, щоб їхній контент використовувався для навчання моделей штучного інтелекту Meta.
Це оновлення політики компанії відображає спробу збалансувати свої потреби в даних з повагою до вподобань власників веб-сайтів.
Однак цієї зміни було недостатньо, щоб заспокоїти нерви всіх. Здатність нових ботів обходити файл robots.txt викликає питання щодо ефективності заходів захисту даних, що зараз діють в Інтернеті.
Крім того, здатність Meta відстежувати та збирати дані в такому широкому масштабі може загострити дискусію щодо конфіденційності та контролю, який великі технологічні компанії мають над інформацією, доступною в Інтернеті.
Наслідки для майбутнього збору даних
Впровадження Meta цих нових ботів являє собою значну еволюцію у способах збору та використання компанією даних для навчання свого штучного інтелекту.
Оскільки технології штучного інтелекту стають все більш інтегрованими в цифрові продукти та послуги, зростає також попит на великі обсяги даних для живлення цих систем.
В результаті, такі компанії, як Meta, шукають дедалі складніші способи доступу до необхідної їм інформації, навіть в умовах, коли локдауни та обмеження стають дедалі поширенішими.
З іншого боку, ця тенденція може призвести до більшого опору з боку власників веб-сайтів, які можуть шукати нові способи захисту свого контенту від несанкціонованого скрейпінгу.
Крім того, регуляторний тиск на методи збору даних великих технологічних компаній може зрости, оскільки уряди та організації з питань конфіденційності прагнуть захистити права користувачів в цифрову епоху.