-->
zKgrs6zB85hFXVVYWSgviTSlJUgaUFEUTuteYZ8X
Bookmark

블로그스팟에서 맞춤 robots.txt 설정하는 방법 | 블로그 SEO 최적화

robots.txt란 무엇인가요?

robots.txt 파일은 검색 엔진 크롤러가 웹사이트를 크롤링할 때 특정 페이지에 대한 접근을 허용하거나 차단하는 역할을 하는 텍스트 파일입니다. 이를 통해 불필요한 페이지 크롤링을 방지하고, 검색 엔진 최적화(SEO)에 도움을 줄 수 있습니다.


블로그스팟에서 robots.txt 설정이 중요한 이유

블로그스팟은 기본적으로 검색 엔진이 모든 페이지를 크롤링할 수 있도록 설정되어 있습니다. 하지만, 일부 페이지는 색인되지 않도록 설정하는 것이 SEO에 유리할 수 있습니다. 예를 들면:

  • 검색 결과 페이지 차단 (/search)
  • 중복 콘텐츠 방지
  • 민감한 정보 포함된 페이지 차단

블로그스팟에서 robots.txt 설정하는 방법

  1. 블로그스팟 계정에 로그인합니다.
  2. 좌측 메뉴에서 "설정"을 클릭합니다.
  3. "크롤러 및 색인 생성" 섹션에서 "맞춤 robots.txt"를 선택합니다.
    맞춤 robots.txt 설정1
    맞춤 robots.txt 설정2


  4. 아래 코드를 입력합니다.
User-agent: *
Disallow: /search
Allow: /
Sitemap: https://your-blog-url/sitemap.xml
        
맞춤 robots.txt 설정3

설정 저장 후 확인 방법: 웹 브라우저에서 https://your-blog-url/robots.txt 를 입력하여 정상적으로 적용되었는지 확인하세요. 위에 입력한 텍스트가 뜨면 정상적으로 적용된 것입니다.


robots.txt 설정 없이 운영하면 어떻게 될까요?

robots.txt 파일을 설정하지 않으면, 검색 엔진이 불필요한 페이지까지 색인하여 검색 결과에 노출될 가능성이 높아집니다.

검색 결과에 노출이 많이 되면 좋다라고 생각 할 수도 있겠지만, 내가 보여주려 하는 부분이 아닌 페이지까지 노출되기 때문에 결국은 SEO에 부정적인 영향을 미칠 수 있습니다. 최악의 경우 트래픽 감소로 이어질 수도 있습니다.

이제 robots.txt 설정을 최적화하여 블로그의 SEO 성능을 향상시켜 성공적인 블로그 운영이 되시기를 바랍니다. 감사합니다.