Next js를 사용한 다이나믹 sitemap 생성 feat. robots.txt 설정 방법
sitemap이 무엇인지 알아보고, Next.js에서 sitemap을 생성하는 방법을 알아보겠습니다.
Summary
SSR (Server Side Rendering)을 지원하는 Next.js를 사용하여 SEO(Search Engine Optimization)를 위한 사이트맵(sitemap)과 robots.txt를 생성하는 방법을 알아보겠습니다.
sitemap과 robots.txt는 왜 해야할까?
SEO(Search Engine Optimization)를 위해서는 사이트맵(sitemap)과 robots.txt 파일을 생성해야 합니다. 사이트맵은 검색엔진이 사이트의 페이지를 크롤링할 때 어떤 페이지가 있는지 알려주는 역할을 합니다. robots.txt 파일은 검색엔진이 어떤 페이지를 크롤링할 수 있는지 제한하는 역할을 합니다.
sitemap이 무엇인지 알아봅시다.
sitemap은 웹사이트의 페이지 목록을 검색엔진에 제공하는 파일입니다. 검색엔진은 이 파일을 읽어 웹사이트의 페이지를 크롤링합니다. sitemap은 XML 형식으로 작성되며, 페이지의 URL, 마지막 수정일, 변경 빈도, 우선 순위 등의 정보를 포함합니다.
아래는 sitemap의 예시입니다.
sitemap은 위처럼 구성되어 있습니다.
sitemap에서 사용되는 태그는 다음과 같습니다.
-
<urlset>: 사이트맵 문서의 최상위 요소입니다. 이 태그는 사이트맵의 컨테이너 역할을 합니다.
-
<url>: 각각의 웹 페이지에 대한 정보를 포함하는 요소입니다. 사이트맵에 포함된 각 페이지마다 하나의 <url> 요소가 있습니다.
-
<loc>: 페이지의 URL을 나타내는 요소입니다. 이것은 검색 엔진이 방문하여 색인화할 페이지의 주소를 제공합니다.
-
<lastmod>: 페이지의 마지막 수정 날짜를 나타내는 요소입니다. 이 정보는 검색 엔진이 페이지를 얼마나 자주 업데이트해야 하는지 결정하는 데 사용됩니다.
-
<changefreq>: 페이지의 변경 빈도를 나타내는 요소입니다. 이것은 검색 엔진에게 페이지가 얼마나 자주 변경되는지 알려줍니다. 여기서 사용된 값들은 "always" (항상), "hourly" (시간별), "daily" (매일), "weekly" (주간), "monthly" (월간), "yearly" (연간), "never" (절대로) 중 하나일 수 있습니다.
-
<priority>: 페이지의 우선 순위를 나타내는 요소입니다. 이 값은 페이지의 중요성을 나타냅니다. 값의 범위는 0.0에서 1.0까지이며, 높은 값은 더 높은 우선 순위를 나타냅니다. 하지만 이 값은 검색 엔진의 알고리즘에서 사용되는 것은 아니며, 일부 엔진은 무시할 수 있습니다.
위 sitemap.xml 파일은 사이트의 메인 페이지, about 페이지, blog 페이지의 정보를 포함하고 있습니다. 이처럼 xml 코드로 sitemap.xml 파일을 생성해도 되지만, 만약 post 페이지 처럼 여러 페이지가 있다면, 자동으로 생성하는 것이 편리합니다.
만약, 동적인 페이지가 사이트에 없다면, xml 코드로 직접 작성해도 됩니다.
Next.js에서 사이트맵(sitemap) 생성하기
동적인 사이트맵을 생성하기 위해 ts 파일을 생성합니다.
app 폴더 안에 sitemap.ts
파일을 생성합니다. 반드시 app 폴더 안에 있어야 합니다.
상단의 xml 파일을 next js sitemap.ts 파일로 변경하려면 다음 코드와 같습니다.
하지만 동적인 사이트맵을 생성하기 위해, 아래와 같이 코드를 변경해야 합니다.
아래 코드는 동적인 post데이터가 있다는 가정하에 작성되었습니다.
위 코드를 살펴보면, 동적인 변경이 필요없는 페이지는 직접 작성하고, 동적인 페이지는 getAllPosts
함수를 통해 가져와서 map 반복문을 통해 데이터를 가져옵니다.
그리고 마지막 return 값에 ...posts
를 추가하여 posts 데이터를 추가합니다.
sitemap이 잘 적용이 된다면, https://acme.com/sitemap.xml
로 접근이 가능합니다.
localhost에서 확인하려면, http://localhost:3000/sitemap.xml
로 접근이 가능합니다.
자세한 내용은 `Next.js 공식문서 - sitemap.ts`를 참고하세요.
다음은 robots.txt 파일을 생성하는 방법을 알아보겠습니다.
robots.txt 파일이 무엇인지 알아봅시다.
robots.txt 파일은 검색 엔진 크롤러에게 웹 사이트의 어떤 부분을 크롤링할 수 있는지, 어떤 부분을 크롤링하지 말아야 하는지 알려주는 파일입니다. robots.txt 파일은 웹 사이트의 루트 디렉토리에 위치해야 하며, 검색 엔진 크롤러가 사이트를 방문할 때 가장 먼저 읽는 파일입니다.
robots.txt 파일은 다음과 같은 형식으로 작성됩니다.
robots.txt 파일의 구성은 다음과 같습니다.
- User-Agent: 크롤러의 이름을 나타내는 요소입니다. "*"는 모든 크롤러를 의미합니다.
- Allow: 크롤러가 접근할 수 있는 URL을 나타내는 요소입니다.
- Disallow: 크롤러가 접근할 수 없는 URL을 나타내는 요소입니다.
- Sitemap: 사이트맵 파일의 URL을 나타내는 요소입니다. 이 요소는 사이트맵 파일의 URL을 검색 엔진에게 알려줍니다.
Next.js에서 robots.txt 파일 생성하기
robots.txt 파일을 생성하기 위해 ts 파일을 생성합니다.
app 폴더 안에 robots.ts
파일을 생성합니다. 반드시 app 폴더 안에 있어야 합니다.
robots.txt 파일은 다음과 같이 작성합니다.
robots.txt파일을 생성하는것은 비교적 간단합니다. 하지만 robots.txt 파일은 검색엔진이 크롤링할 수 있는 페이지와 크롤링할 수 없는 페이지를 설정하는 파일이기 때문에 신중하게 설정해야 합니다. 자신 사이트에 맞는 설정을 해야 합니다.
자세한 내용은 `Next.js 공식문서 - robots.ts`를 참고하세요.