Meta “recruta” mais robôs para treinar Inteligência Artificial

A Meta, empresa responsável por plataformas como Facebook e Instagram, está utilizando dois novos bots para rastrear a internet em busca de dados destinados ao desenvolvimento e aprimoramento de seus modelos de inteligência artificial (IA).

Essas novas ferramentas foram implementadas de maneira discreta no final de julho, conforme reportado pelo Business Insider na última quarta-feira (21).

A introdução desses bots marca uma etapa significativa na estratégia da Meta para otimizar seus produtos baseados em IA, ao mesmo tempo em que contorna bloqueios de acesso a dados impostos por sites que não desejam compartilhar suas informações.

Ferramentas de Rastreamento para Coleta de Dados da Meta

Os novos bots, denominados “Meta-ExternalAgent” e “Meta-ExternalFetcher”, foram projetados para coletar uma vasta gama de dados na web, necessários para treinar os modelos de IA que a Meta utiliza em seus diversos produtos e serviços.

O “Meta-ExternalAgent” tem a capacidade de realizar a indexação direta dos conteúdos que encontra, desempenhando um papel crucial na coleta de informações para melhorar as capacidades da IA da empresa.

Em contrapartida, o “Meta-ExternalFetcher” é direcionado para obter informações específicas, com o objetivo de aprimorar o assistente de IA da Meta e outros recursos vinculados aos seus produtos.

Contornando Bloqueios com Tecnologia Avançada

O que torna esses bots especialmente notáveis é a tecnologia avançada que eles empregam para escapar dos bloqueios configurados por proprietários de sites que buscam evitar a raspagem de seus dados.

Tradicionalmente, muitos sites utilizam um arquivo chamado “robots.txt” para restringir ou proibir o acesso de rastreadores automatizados, como os utilizados pela Meta.

No entanto, os novos bots da empresa são capazes de contornar essas restrições com grande eficácia, o que tem gerado preocupações entre os administradores de sites e especialistas em privacidade digital.

Você precisa saber disso hoje mesmo:

Eficácia dos Novos Bots da Meta

De acordo com um relatório da startup Originality.ai, especializada na detecção de conteúdo gerado por IA, apenas 1,5% dos principais sites da web estão conseguindo bloquear o bot “Meta-ExternalAgent”.

O “Meta-ExternalFetcher”, por sua vez, é ainda mais eficiente, sendo bloqueado por menos de 1% dessas páginas. Esse desempenho representa uma melhoria significativa em comparação com o “FacebookBot”, um rastreador mais antigo da Meta, que é bloqueado por aproximadamente 10% dos sites.

A eficácia desses novos bots demonstra a capacidade da Meta de adaptar suas tecnologias para continuar acessando os dados necessários para o treinamento de seus modelos de IA, mesmo diante de barreiras impostas por administradores de sites.

A empresa, liderada por Mark Zuckerberg, parece estar empenhada em garantir que seus sistemas de IA possam evoluir e se tornar cada vez mais sofisticados, alimentados por uma vasta quantidade de dados coletados em toda a web.

Atualização de Políticas e Reações do Mercado com a Meta

Em resposta às preocupações levantadas por editores e administradores de sites, a Meta atualizou recentemente suas diretrizes sobre como excluir um domínio da raspagem de dados feita pelos bots associados à IA da empresa.

Segundo um porta-voz da Meta, a empresa está comprometida em atender às solicitações dos editores que não desejam que seus conteúdos sejam utilizados para treinar os modelos de IA da Meta.

Essa atualização nas políticas da empresa reflete uma tentativa de equilibrar suas necessidades de dados com o respeito às preferências dos proprietários de sites.

No entanto, essa mudança não foi suficiente para acalmar todos os ânimos. A capacidade dos novos bots de contornar o arquivo robots.txt levanta questões sobre a eficácia das medidas de proteção de dados atualmente em uso na web.

Além disso, a habilidade da Meta de rastrear e coletar dados de forma tão abrangente pode intensificar o debate sobre privacidade e o controle que grandes empresas de tecnologia têm sobre as informações disponíveis na internet.

Implicações para o Futuro da Coleta de Dados

A introdução desses novos bots pela Meta representa uma evolução significativa na maneira como a empresa coleta e utiliza dados para treinar suas IA.

À medida que as tecnologias de IA se tornam mais integradas aos produtos e serviços digitais, a demanda por grandes volumes de dados para alimentar esses sistemas também cresce.

Com isso, empresas como a Meta estão buscando maneiras cada vez mais sofisticadas de acessar as informações necessárias, mesmo em um ambiente onde os bloqueios e restrições são cada vez mais comuns.

Por outro lado, essa tendência pode levar a uma maior resistência por parte dos proprietários de sites, que podem buscar novas maneiras de proteger seus conteúdos contra a raspagem não autorizada.

Além disso, a pressão regulatória sobre as práticas de coleta de dados por parte das grandes empresas de tecnologia pode aumentar, à medida que governos e organizações de defesa da privacidade buscam proteger os direitos dos usuários na era digital.

você pode gostar também