본문 바로가기
블로그 테크닉

구글 블로그에 robots.txt 등록하는 법

by 감나무하늘 2024. 9. 15. 21:28

개요

먼저 robots.txt가 무엇이고 왜 필요한지를 간략하게 알 필요가 있습니다. 왜냐하면 그래야 원리가 이해가 되고 응용이 가능하기 때문입니다. 무턱대고 여기저기서 찾은 정보대로 따라하기만 하면, 결국에는 아주 간단한 문제조차 스스로 해결할 수 없게 되기 때문입니다. 

 

robots.txt는 무엇인가?

이것은 자기 웹/앱 사이트를 방문하는 로봇(검색로봇 등)들과 서로 대화를 통해 그 방문 로봇들을 제어하기 위한 것입니다. 그것들에게 "여기는 색인하면 안된다" 라든가 "여기는 중요한 곳이니 SEO에 맞게 더 신경써서 색인해달라"와 같은 차단이나 요청 등의 일을 합니다. 그러나 robots.txt는 통신 수단일 뿐 강제 수단이 아닙니다. 그러다 보니 이런 요청을 무시하는 '악성 봇'들의 나쁜 행위들을 막아주는 역할을 할 수는 없습니다. 

 

방법

1) 왼쪽 사이드바에서 '설정 (아래그림에서 붉은 사각형 'a')' 메뉴에 들어 갑니다. 

robots.txt 등록 - 사진1
robots.txt 등록 - 사진1

2) 들어가서 나오는 오른쪽 화면에서 '크롤러 및 색인 생성' 부분을 찾은 뒤 (붉은 사각형 'b') 

3) '맞춤 robots.txt 사용설정' 메뉴를 'ON' 시킨 다음 (버튼이 파란색이 되면 ON입니다) 

4) 그 아래 '맞춤 robots.txt' 메뉴를 클릭하여 나오는 입력창에 (아래 그림 참고) 다음과 같이 입력합니다. 

User-agent: *
Allow: /

- URL 내의 모든 페이지를 모든 로봇에 대하여 색인을 허용하겠다는 뜻 sitemap 정보는 써도 되고 안써도 됩니다. 

robots.txt 등록 - 사진2
robots.txt 등록 - 사진2

 

결론 

위에 적은 내용은 특별한 구애됨이 없이 방문 로봇에게 자기 URL내의 모든 페이지를 다 공개하겠다는 뜻입니다. 이렇게 단순하게 등록하지 않고, 더 많은 기능을 사용하여 다양한 성능을 내려면 더 많이 복잡합니다. 그러나 여기서는 그런 내용을 다루지 않고 단순히 등록하는 방법만 말씀 드립니다.