학습

크롤링 한 데이터 사용의 법적 문제(cf. robots.txt)

ParkParksu 2023. 4. 25. 15:00

크롤링과 관련된 실제 법적 분쟁 사례

https://zdnet.co.kr/view/?no=20170927180839

 

웹 크롤링(Web Crawling)은 인터넷에서 정보를 수집하는 프로세스다. 
이를 통해 데이터를 모아 사용자에게 제공하거나, 분석을 위한 데이터셋을 만들 수 있다. 
하지만 크롤링을 통해 데이터를 사용할 때 법적 이슈에 대해 주의해야 한다. 

 

 

주요 법적 쟁점과 준수 방법
  1. 저작권
    크롤링을 통해 수집된 데이터 중 저작권이 있는 컨텐츠를 사용할 경우 저작권 침해가 될 수 있다. 저작권 보호된 자료를 사용하려면 해당 저작물의 저작권자로부터 허락을 받거나, 정당한 사용을 주장할 수 있는지 확인해야 한다. 이를 위해 저작권자의 정책을 확인하고, 필요한 경우 허락을 구해야 한다.
  2. 데이터 보호 및 개인정보 보호
    크롤링을 통해 수집된 데이터 중 개인정보가 포함된 경우, 해당 정보를 취급할 때 개인정보 보호법 등 관련 법규를 준수해야 한다. 또한, 데이터 사용에 관한 법적 이슈를 방지하기 위해 사용자의 동의를 얻거나, 데이터를 익명화하는 등의 조치를 취해야 할 수도 있다.

  3. 서비스 이용 약관
    크롤링 대상 사이트의 이용 약관에 따라 크롤링 행위가 금지될 수 있다. 이를 위반할 경우, 서비스 제공자로부터 법적 책임을 물을 수 있으므로, 사전에 해당 사이트의 이용 약관을 확인해야 한다.

  4. 로봇 배제 표준 (Robots Exclusion Standard) - robots.txt
    웹 사이트 관리자는 로봇 배제 표준(Robots Exclusion Standard)을 통해 크롤링의 대상이 되지 않기를 원하는 페이지를 명시할 수 있습니다. 이를 준수하지 않고 크롤링을 진행할 경우, 사이트 관리자로부터 법적 책임을 물을 수 있다. 따라서 크롤링을 수행하기 전에 해당 웹사이트의 'robots.txt' 파일을 확인하고, 명시된 규칙을 준수하는 것이 중요!

  5. 무분별한 요청과 서비스 거부 공격(Denial of Service, DoS)
    크롤러가 과도한 양의 데이터를 빠르게 요청할 경우, 해당 웹사이트의 서버에 부담을 주어 서비스 거부 공격(Denial of Service, DoS)으로 간주될 수 있다. 이러한 상황을 방지하기 위해, 크롤러의 요청 속도를 적절히 조절하고, 웹사이트의 요청에 대한 정책을 준수하는 것이 좋다.
  6. 데이터의 정확성과 신뢰성 확보
    크롤링을 통해 수집된 데이터의 정확성과 신뢰성을 확보하는 것은 매우 중요한 항목이다. 데이터의 출처를 명시하고, 수집된 데이터를 정기적으로 업데이트하여 데이터의 정확성을 유지하는 것이 필요하다. 또한, 부정확한 데이터나 편이 담긴 데이터를 사용함으로써 발생할 수 있는 문제에 대비하여 책임 있는 데이터 사용을 실천해야 한다.

 

정리

웹 크롤링을 통해 데이터를 수집하고 사용할 때에는 다양한 법적 이슈에 주의해야 한다.

저작권, 데이터 보호, 서비스 이용 약관, 로봇 배제 표준, 서비스 거부 공격 방지 등에 대한 지식을 갖추고, 책임 있는 데이터 사용을 실천하여 법적 문제를 피할 수 있다. 

 

 

빅분기나, ADP 시험을 준비하다보면 데이터 익명화에 의한 개인정보처리 부분이 나오는데 생각보다 많은 고민이 있다는 것을 알 수 있었다.

 

 

 

cf. robots.txt

robots.txt 파일은 웹 사이트의 루트 디렉토리에 위치한 텍스트 파일.
웹 크롤러(또는 로봇)가 해당 웹 사이트의 페이지나 섹션을 크롤링할 수 있는지, 혹은 금지하는지에 대한 정보를 제공. 
이 파일은 로봇 배제 표준(Robots Exclusion Standard)이라 불리며,(https://ko.wikipedia.org/wiki/%EB%A1%9C%EB%B4%87_%EB%B0%B0%EC%A0%9C_%ED%91%9C%EC%A4%80)
웹 사이트 관리자가 웹 크롤러가 접근할 수 있는 영역을 제어할 수 있게 한다.

 

웹 브라우저에서 robots.txt 확인 방법

  • https://www.naver.com/robots.txt

위 링크를 주소창에 쳐보면 robots.txt 문서가 다운받아지는데(크롬기준), 

User-agent : * 

Allow: /

모든 문서에 대한 접근 허용

 

User-agent : *

Disallow: /

모든 문서에 대한 접근 거부

 

User-agent : *

Disallow: /

Allow : /$

모든 문서에 대한 접근 거부하나 첫 번째 페이지만 허용

 

대충 이렇게 크롤링의 허용범위를 제어한다.

728x90