hy30nq's blog

로봇 배제 표준, robots.txt 파일이란 무엇인가요? 본문

ELITE HACKER bootcamp/Pre.web

로봇 배제 표준, robots.txt 파일이란 무엇인가요?

hy30nq 2024. 4. 19. 02:48
728x90

안녕하세요, 여러분! 오늘은 웹사이트 관리에 있어서 매우 중요한 역할을 하는 'robots.txt' 파일에 대해 알아볼 거예요. 이 파일이 왜 중요한지, 어떻게 사용되는지 쉽고 간단하게 설명해 드리겠습니다!

robots.txt 파일이란?

robots.txt 파일은 웹사이트 루트 디렉토리에 위치한 텍스트 파일로, 검색 엔진 로봇이 사이트 내의 어떤 부분을 크롤링(검색)하거나 인덱싱(목록 생성) 해서는 안 되는지 지시하는 규칙을 담고 있어요. 이것을 '로봇 배제 표준'이라고 부르죠.

왜 중요할까요?

웹사이트 운영자는 이 파일을 통해 특정 사용자 에이전트(검색 엔진 로봇)에게 사이트의 특정 부분에 접근하지 못하게 할 수 있어요. 예를 들어, 개인정보가 담긴 페이지나 서버에 부담을 주는 페이지를 로봇이 접근하는 것을 막을 수 있죠.

어떻게 사용되나요?

  1. User-agent: 접근을 제어할 로봇을 지정합니다.
  2. Disallow: 로봇이 접근을 금지할 페이지 경로를 지정합니다.
  3. Allow: Disallow로 막은 범위 내에서 허용할 특정 경로를 지정할 수 있습니다.
예시
User-agent: *
Disallow: /private/
Allow: /public/

위 예시에서 'User-agent: *'는 모든 로봇에 적용된다는 의미이고, '/private/' 디렉토리는 크롤링을 금지하며, '/public/' 디렉토리는 크롤링을 허용한다는 것을 나타냅니다.

 

robots.txt 파일은 간단하지만 웹사이트의 트래픽 관리와 보안에 큰 역할을 합니다. 올바르게 설정하는 것이 SEO 성과에도 긍정적인 영향을 미친답니다.

 

이 글이 여러분에게 도움이 되었으면 좋겠어요. 관련된 다른 질문이나 궁금한 점이 있다면 언제든지 댓글로 남겨주세요!

728x90