AI 크롤러, 웹사이트 리소스 침해 및 분석 데이터 왜곡
AI 기업들의 웹 크롤러 활동 증가로 인해 웹사이트 서버 자원 낭비와 분석 데이터 왜곡 문제가 심화되고 있다.
AI 크롤러로 인한 서버 부담 증가
OpenAI와 같은 기업들의 AI 크롤러 활동이 웹사이트의 대역폭을 과도하게 사용하고 있다. 일부 사이트 운영자는 성능 저하와 서버 부하 증가를 직접적으로 AI 크롤러 활동 때문이라고 보고하고 있다. 예를 들어, SourceHut은 과다한 봇 트래픽으로 인해 일부 클라우드 제공업체를 차단한 바 있다.
클라우드 호스팅 서비스 Vercel의 데이터에 따르면, OpenAI의 GPTBot은 한 달 동안 5억 6,900만 건의 요청을 발생시켰으며, Anthropic의 Claude는 3억 7,000만 건을 기록했다. 이는 같은 기간 구글 서치 크롤러 트래픽의 약 20%에 해당하는 양이다.
분석 데이터 왜곡과 비용 증가
과도한 봇 활동은 분석 데이터를 왜곡하고 운영 비용 증가로 이어지고 있다. DoubleVerify의 자료에 따르면, 2024년 하반기 일반 비정상 트래픽은 AI 크롤러로 인해 86% 상승했다. 또한, Read the Docs 프로젝트는 AI 크롤러를 차단한 후 트래픽이 약 75% 감소했으며, 월 약 1,500달러의 대역폭 비용을 절감했다고 밝혔다.
전통적 봇과 다른 AI 크롤러의 특성
AI 크롤러는 기존 웹 크롤러보다 더 빈번하고 공격적으로 웹페이지에 접근하는 경향이 있다. 동일한 페이지를 반복적으로 방문하며 자원을 소비하고 있는 것이다. 더불어 이들은 사용자 에이전트를 바꾸거나 주거용 IP를 프록시로 사용하므로 차단하기가 점점 더 어려워지고 있다.
AI 크롤러 관리 방안
웹사이트 소유자는 AI 크롤러로 인한 부담을 관리하기 위해 비정상적인 트래픽 패턴을 서버 로그에서 점검하고, 대역폭 사용량 급증 여부를 모니터링하며, Core Web Vitals 지표에서 이상 패턴을 추적해야 한다.
또한 구글의 AI 서비스에서 콘텐츠 활용을 차단하면서도 검색엔진 가시성을 유지하려면 robots.txt 파일에 Google-Extended를 추가하는 방식을 고려할 수 있다. Cloudflare의 AI Labyrinth는 AI 크롤러를 AI 생성 페이지로 되돌리는 대안을 제시하고 있다.
SEO와 AI 크롤러 간의 균형 잡기
AI 크롤러의 진화가 지속됨에 따라, SEO 전문가들은 서버 로그를 주기적으로 점검하고 크롤러의 영향을 평가해야 한다. 더 나아가 과도한 영향을 받는 사이트의 경우 고급 차단 옵션을 활용해 분석 정확도를 높이고 사이트 리소스를 보호해야 한다.
출처 : 원문 보러가기