일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- react portal
- NVM
- next/link
- CPU와 GPU의 차이점
- 원티드프리온보딩
- 유령 의존성
- JS
- Passed by Value
- NextJs
- Client-Side Navigation
- 원티드인턴십
- 회고록
- input error
- Node
- 원티트 프리온보딩인턴십 1주차
- Redux
- Mac OS NVM
- 광고지구
- 향해99
- 알고리즘
- toast err
- JavaScript
- 식별자란
- CloudFront 무효화
- react
- Til
- 프로젝트
- git
- jsEvent Loop
- 인풋태그 엔터
- Today
- Total
SUIN
검색엔진 최적화(SEO) 파헤치기 본문
들어가며
서비스를 개발하거나 운영할 때, 사용성만큼 중요한 요소가 바로 SEO(Search Engine Optimization, 검색 엔진 최적화)라고 생각된다. 기업이나 개인이 운영하는 서비스의 검색 노출량이 증가할수록 더 많은 사용자에게 도달할 수 있고, 이는 궁극적으로 비즈니스 성과에 긍정적인 영향을 미친다. 따라서, 개발자에게 SEO의 이해와 적용은 이제 필수적이다.
SEO는 단순히 마케팅 팀의 책임이 아니며, 웹사이트의 기술적 구조와 사용자 경험을 최적화하는 데 있어 개발자의 역할이 매우 중요하다. 효과적인 SEO 구현을 통해 개발자는 웹사이트의 성능을 향상시키고, 검색 엔진에서의 가시성을 높일 수 있다. 이러한 이유로, 이번 스터디를 통해 검색 엔진 최적화에 대해 자세히 알아보고, 개발자 관점에서 살펴봐야 할 SEO 요소들을 집중적으로 다뤄보고자 한다.
검색 엔진 최적화(SEO)란 무엇일까?
SEO(Search Engine Optimization)는 검색 엔진 최적화를 의미하며, 웹사이트나 콘텐츠가 검색 엔진에서 더 잘 노출되도록 개선하는 작업이다. SEO의 목적은 웹페이지가 특정 키워드로 검색될 때 검색 결과 상위에 표시되도록 하는 것이며, 이를 통해 더 많은 사용자가 방문할 수 있게 한다.
쉽게 말해 구글, 네이버, 엣지처럼 검색어를 입력하면 관련 웹 페이지를 찾아주는 서비스이다. 이러한 검색 엔진은 각각 고유한 알고리즘을 통해 웹 페이지를 평가하고 순위를 매기므로, SEO 작업은 각 검색 엔진의 특성을 고려하여 최적화되어야 한다.
🤔 검색 엔진 마다 자사의 검색 알고리즘을 공개하고 있을까? Not 전부 But 일부
검색 엔진이 사용하는 알고리즘의 정확한 작동 방식은 외부에 공개되지 않는다. 구글, 네이버, 마이크로소프트 빙과 같은 검색 엔진 회사들은 그들의 알고리즘을 비공개로 유지하는데, 여기에는 몇 가지 이유가 있다.
1. 검색 결과 조작 방지
만약 알고리즘이 완전히 공개된다면, 웹사이트 운영자들이 이를 악용해 검색 결과를 인위적으로 조작하거나 부정적인 방식으로 상위에 노출될 수 있다. 이를 방지하기 위해 검색 엔진 회사들은 알고리즘의 세부 사항을 공개하지 않는다.
2. 경쟁력 유지
검색 엔진 회사들이 각자 독자적인 기술과 방식을 개발해 사용자에게 더 좋은 결과를 제공하는 것이 중요한 경쟁 요소다. 따라서 다른 경쟁사에게 자사 알고리즘을 노출시키지 않기 위해 비공개로 유지한다.
3. 지속적인 업데이트
검색 알고리즘은 정적인 것이 아니라, 수시로 업데이트되고 변경된다. 구글만 하더라도 매년 수천 건의 알고리즘 업데이트를 시행하는데, 이는 더 나은 검색 결과를 제공하고 스팸성 콘텐츠를 배제하기 위함이다. 이런 변화들을 외부에 모두 공개하지 않기 때문에 알고리즘에 대한 완전한 이해는 어렵다고 한다.
다만, 검색 엔진 회사들은 알고리즘의 일부 원칙이나 Best practice는 공개되고 있다. 예를 들어 구글은 웹사이트가 어떻게 더 잘 최적화될 수 있는지에 대한 가이드라인을 제공하고 있으며, 좋은 SEO(검색 엔진 최적화) 관행에 대해서도 많은 정보를 제공한다. 더 자세한 정보를 알고 싶다면 아래 링크를 참고하면 된다.
🔗 SEO 기본 가이드 - 네이버 서치어드바이저 | 구글 검색엔진 최적화(SEO) 기본 가이드 | bing 웹 마스터 도구
검색 엔진 프로세스 : 웹 크롤링 - 색인화 - 랭킹
검색엔진이 정보를 어떻게 수집하고, 저장하며, 사용자에게 제공하는지를 이해하는 것은 SEO(검색 엔진 최적화)에서 매우 중요한 요소이며, 검색엔진 프로세스는 크게 웹크롤링(Web crawling), 색인화(Indexing), 랭킹(Ranking)의 세 가지 주요 단계로 이루어진다. 각 단계에서 검색 엔진은 웹 페이지를 탐색하고, 구조화하며, 순위를 매기는 과정을 통해 사용자에게 관련성 높은 정보를 제공한다.
웹 크롤링(Web Crawling)
웹 크롤링(Web Crawling)은 웹 크롤러(스파이더 또는 검색 엔진 봇)가 인터넷의 정보를 수집하는 과정을 의미한다. 웹상의 방대한 정보를 우리가 일일이 파악하는 것은 불가능하므로, 웹 페이지가 무엇에 대한 것인지 분석하고 필요한 정보를 추출하는 작업을 웹 크롤러가 수행하게 되며, 웹 크롤러는 웹 문서를 자동으로 탐색하여 검색 엔진이 사용자에게 정보를 제공할 수 있도록 한다.
웹 크롤링(Web Crawling)의 동작순서
1. 시드 URL(Seed URL) 설정
크롤러는 크롤링을 시작할 초기 웹 페이지 목록인 시드 URL에서 시작한다. 이 시드 URL은 검색 엔진이 이미 알고 있는 URL이거나, 웹마스터가 제출한 URL을 기반으로 설정된다. 예를 들면, https://example.com과 같은 웹사이트의 첫 번째 페이지가 시드 URL이 될 수 있다.
2. robots.txt 파일 확인
크롤러는 각 웹사이트의 robots.txt 파일을 먼저 확인한다. 이 파일은 크롤러가 어떤 페이지나 디렉토리를 크롤링할 수 있는지, 또는 금지된 페이지가 있는지를 알려준다. 예를 들어, https://example.com/robots.txt 파일을 요청하여 페이지의 크롤링 가능 여부를 확인한다.
허용된 경우 크롤링을 진행하며, 금지된 경우 해당 페이지는 큐에 추가되지 않고 크롤링하지 않는다.
3. URL 크롤링 큐에 추가
robots.txt 파일에서 크롤링이 허용된 URL만 크롤링 큐(Queue)에 추가된다. 큐는 크롤러가 방문할 페이지 목록으로, 크롤링할 URL이 저장되는 곳이다. 큐에 추가된 URL의 우선순위는 웹사이트의 중요도, 업데이트 빈도 등을 기준으로 결정된다.
크롤링 순서) 1. 시드 URL을 큐에 추가한다 2. 이후 수집된 URL 중 허용된 것만 큐에 추가한다.
4. 웹 페이지 다운로드 및 콘텐츠 분석
크롤러는 크롤링 큐에 있는 URL을 방문해 해당 웹페이지의 HTML 콘텐츠를 다운로드한다. 이 콘텐츠에는 텍스트, 이미지, 메타 태그, 링크 등이 포함되며, 다운로드한 콘텐츠는 이후 인덱싱 단계에서 분석된다.
5. 링크 추출 및 새로운 URL 발견
크롤러는 다운로드한 웹페이지 내에서 다른 페이지로 연결된 하이퍼링크를 추출한다. 추출된 링크는 크롤링할 추가 URL로 간주되며, 각 링크는 robots.txt 규칙을 다시 확인한 후, 크롤링이 허용되면 큐에 추가된다.
🤔 링크 수집(추출)과정은 어떻게 될까?
HTML 코드 내에서 데이터를 추출하고, 링크 정보를 수집하기 위해 파싱을 수행하며 이 과정에서 페이지에 포함된 모든 링크를 탐색한다.
//예시 코드 <a href="/about">About</a> <a href="/user/profile">Profile</a> <a href="/contact">Contact</a>
파싱 과정에서 /About, /Profile, /Contact 링크를 수집하며, 크롤러는 이 링크들을 기반으로 절대 경로로 변환하여 접근 가능한 URL 목록을 생성한다.
절대 경로로 변환된 링크들
- https://example.com/about
- https://example.com/user/profile
- https://example.com/contact
🤔 수집된 링크들은 왜 robots.txt 규칙을 한번 더 확인하는걸까?
“새롭게 수집된 링크들은 동적이거나 예상치 못한 경로일 가능성”
크롤링 중에 새롭게 발견되는 모든 링크가 항상 정적이거나 예상한 경로에 위치하지 않는다. 웹페이지가 동적 콘텐츠를 포함하거나, 링크를 외부에서 불러오거나, 새로운 경로를 동적으로 생성할 수 있기 때문에, 크롤러는 새로 수집된 링크들에 대해 다시 한 번 robots.txt 규칙을 확인하는 절차가 필요하다. 예를 들어, 페이지를 크롤링하는 중에 /user/settings라는 링크가 나왔을 때, 이 경로가 금지된 경로에 속하는지 다시 확인하는 절차라고 생각하면 된다.
“robots.txt 가 복잡한 경우를 대비한 철저한 확인절차 필요”
robots.txt파일은 단순히 특정 경로를 금지하는 것 외에도, 특정 User-agent(크롤러)에 따라 다른 규칙을 적용하거나, Disallow규칙과 함께 Allow규칙도 포함할 수 있다. 이로 인해robots.txt가 매우 복잡한 규칙을 가질 수 있으므로, 크롤러는 각 링크의 허용 여부를 철저하게 확인해야 한다. 따라서 매번 확인 작업이 필요하다. 예를 들어, /user/ 경로는 금지되어 있지만 /user/public은 허용될 수 있는 경우가 있을 수 있다.
6. 속도 및 빈도 조절(Crawl Rate Limiting)
크롤러는 웹사이트의 성능에 영향을 주지 않도록 크롤링 속도와 빈도를 조절한다. 웹 서버의 부하를 감지하고, 크롤링 요청 간의 간격을 조정하여 과도한 트래픽을 발생시키지 않도록 한다.
7. 중복 콘텐츠 처리
크롤러는 이미 크롤링한 페이지와의 중복 여부를 확인한다. 중복된 콘텐츠는 하나로 통합하거나, 검색 엔진에서 순위를 매기는 과정에서 제외된다. 또한, 페이지가 변경되었는지 확인하기 위해 일정 주기로 재크롤링(Recrawling)하여 업데이트된 콘텐츠를 반영한다.
8. 크롤링 종료 및 인덱싱 준비
크롤러는 크롤링한 데이터를 검색 엔진의 인덱스에 반영하기 위해 인덱싱 단계로 넘긴다. 크롤링은 새로운 페이지를 지속적으로 탐색하기 때문에, 웹 전체를 계속해서 순환하며 반복적으로 이루어진다.
색인화(Indexing)
색인화는 크롤링 과정에서 수집한 정보를 바탕으로, 웹 페이지의 내용을 정리하고 구조화하여 검색 엔진의 데이터베이스에 저장하는 과정을 의미한다. 이 과정에서 검색 쿼리에 대한 응답 속도를 높이고, 사용자가 원하는 정보를 쉽게 찾을 수 있도록 돕는다.
색인화(Indexing)의 동작 순서
1. 데이터 수집
크롤링된 웹 페이지의 정보 수집: 검색 엔진의 크롤러가 탐색한 모든 웹 페이지의 텍스트, 이미지, 메타데이터, 링크 등이 수집된다. 이때 웹 페이지의 HTML 구조, 텍스트 콘텐츠, 메타 태그(Title, Description 등), 이미지의 ALT 태그, 링크 구조 등이 수집된 데이터에 포함된다.
2. 콘텐츠 분석 및 처리
- 텍스트 콘텐츠 분석: 페이지에서 수집된 텍스트를 분석하여 중요한 키워드를 추출하고, 문맥을 이해한다. 여기서 검색 엔진은 페이지의 주제를 파악하고, 어떤 검색 쿼리와 연관될지 평가한다.
- 메타데이터 분석: 메타 태그(예: 제목 태그, 설명 태그)는 검색 엔진이 해당 페이지를 설명하는 중요한 단서가 된다. 특히 제목 태그는 검색 결과에서 표시될 페이지의 제목으로 사용되기 때문에 매우 중요하다.
- 구조적 데이터 처리: 웹 페이지에 구조화된 데이터 마크업(예: Schema.org)을 사용한 경우, 검색 엔진은 이를 분석하여 더 풍부한 정보를 인덱스에 저장한다. 예를 들어, 제품 페이지에서 가격, 리뷰, 별점 등을 구조화된 데이터로 마크업하면, 검색 엔진은 이를 별도의 정보로 저장한다.
- 이미지 및 비디오 분석: 텍스트 외의 이미지나 비디오는 ALT 태그와 파일 이름, 캡션 등을 기반으로 인덱싱된다.
3. 페이지의 의미 파악
- 키워드와 주제 결정: 페이지에서 핵심 키워드를 추출하여 페이지의 주요 주제와 연관된 검색 쿼리를 결정한다. 이때 페이지 내에서 자주 등장하는 단어, 제목 및 본문의 문맥 등이 중요하게 작용한다.
- 검색 의도 매칭: 검색 엔진은 사용자가 어떤 정보를 찾고자 하는지 파악하기 위해 페이지의 콘텐츠를 분석하고, 그 내용을 사용자의 검색 의도와 매칭한다. 예를 들어, 사용자 쿼리가 정보성인지, 상업성인지에 따라
4. 링크 구조 분석
- 내부 링크 및 외부 링크 분석: 페이지에 있는 내부 링크와 외부 링크를 분석하여 웹 사이트의 구조와 신뢰도를 평가한다.
내부 링크는 웹사이트 내의 다른 페이지와의 연결성을 강화하고, 검색 엔진이 다른 관련 페이지를 쉽게 발견할 수 있도록 돕는다.
외부 링크는 페이지가 외부 신뢰할 수 있는 소스로부터 링크를 받는 경우, 페이지의 권위성을 높이는 데 중요한 역할을 한다.
링크의 앵커 텍스트도 중요한 요소로, 이 텍스트는 검색 엔진이 해당 링크가 가리키는 페이지의 내용을 이해하는 데 도움을 준다.
5. 중복 콘텐츠 처리
- 중복 페이지 제거: 검색 엔진은 동일하거나 매우 유사한 콘텐츠가 여러 페이지에서 발견되는 경우, 이를 중복 콘텐츠로 처리하고 인덱스에서 제거하거나, 대표 페이지 하나만 인덱스에 유지한다.
- Canonical 태그: 중복되는 페이지가 여러 개 있는 경우, canonical 태그를 통해 검색 엔진이 어떤 페이지를 대표 페이지로 인덱싱할지 지정할 수 있다.
6. 페이지 품질 평가
- 콘텐츠의 품질 평가: 검색 엔진은 페이지의 콘텐츠 품질을 평가한다. 이는 오리지널 콘텐츠인지, 유용한 정보를 제공하는지, 관련 키워드를 자연스럽게 사용하고 있는지 등을 고려한다.
- 사용자 경험(UX) 분석: 페이지가 사용자에게 좋은 경험을 제공하는지(예: 로딩 속도, 반응형 디자인, 탐색 용이성 등)도 평가 요소이다. 특히 모바일 친화성은 중요한 품질 평가 요소로 작용한다.
7. 문서 저장 및 인덱스화
검색 엔진은 분석한 웹 페이지의 데이터를 검색 가능한 인덱스에 저장한다. 이 인덱스는 도서관의 색인과 비슷하게, 각 페이지가 어떤 내용인지 효율적으로 찾아낼 수 있도록 구조화되어 있다. 인덱스에 저장될 때, 페이지의 중요한 요소들(키워드, 메타 태그, 페이지 링크 등)이 빠르게 검색될 수 있도록 정리된다.
8. 페이지 순위 계산 준비
인덱스에 저장된 페이지는 나중에 사용자가 검색할 때 랭킹 알고리즘에 의해 순위가 매겨진다. 이때 페이지의 키워드 관련성, 품질 평가, 권위성(백링크 수), 사용자 반응(클릭률, 체류 시간) 등이 중요한 요소로 사용된다. 페이지가 검색 순위에 오르는 데 영향을 미치는 신호들은 수백 개가 넘으며, 이는 검색 엔진마다 다소 차이가 있지만, 일반적으로는 페이지의 신뢰성과 관련성이 주요 기준이 된다.
9. 재인덱싱(Recrawling and Reindexing)
웹 페이지는 시간이 지나면서 수정될 수 있기 때문에 검색 엔진은 정기적으로 페이지를 다시 크롤링하고, 변경된 정보를 인덱스에 업데이트한다. 이를 통해 검색 엔진은 최신 콘텐츠를 사용자에게 제공할 수 있으며, 사이트가 변경되면 이를 빠르게 반영한다.
랭킹(Ranking)
검색 엔진에서 랭킹(Ranking) 과정은 사용자가 입력한 검색어(쿼리)에 가장 관련성이 높은 웹페이지를 검색 결과 상단에 노출하기 위해, 수집된 웹페이지들을 평가하고 순위를 매기는 과정이다. 검색 결과 페이지에서 어떤 콘텐츠가 상위에 나타나는지를 결정하는 데 있어 매우 중요한 역할을 한다.
랭킹 과정의 주요 요소와 절차
1. 크롤링과 인덱싱
크롤러가 웹페이지의 데이터를 수집한 후, 인덱싱 단계에서 웹페이지의 콘텐츠, 메타 태그, 링크 등을 데이터베이스에 저장한다. 랭킹 과정은 이 인덱싱된 데이터 기반으로 진행된다.
2. 검색 쿼리 분석
사용자가 검색 창에 입력한 검색어(쿼리)를 분석한다. 검색 엔진은 쿼리의 의도를 파악하고, 검색어에 포함된 주요 키워드를 인식한다. 검색어의 의미를 더 잘 파악하기 위해 자연어 처리(NLP)기술도 사용된다. 예를 들어, 질문의 의도나 문맥을 분석하여 정확한 의미를 추론한다.
3. 관련성 평가(문서와 쿼리의 매칭)
검색 엔진은 사용자의 쿼리와 인덱싱된 웹페이지의 콘텐츠를 비교하여 관련성을 평가한다. 여기서 주요하게 고려되는 요소는 키워드 매칭이다. 웹페이지가 사용자의 검색어와 얼마나 잘 일치하는지 확인한다. 하지만 단순한 키워드 일치가 아닌, 페이지의 전체적인 주제와 검색 의도가 일치하는지, 쿼리의 맥락에 부합하는지 등을 평가한다.
4. 랭킹 신호(랭킹 알고리즘 적용)
검색 엔진은 랭킹 신호라고 불리는 다양한 요소를 기반으로 웹페이지의 순위를 결정한다. 대표적인 랭킹 신호는 다음과 같다
- 콘텐츠의 품질: 웹페이지의 콘텐츠가 유익하고, 신뢰할 수 있으며, 잘 구성되어 있는지 평가한다.
- 키워드 최적화: 제목, 본문, 메타 태그, URL 등에 검색어와 관련된 키워드가 적절하게 포함되어 있는지 확인한다.
- 페이지 권위(Authority): 페이지가 다른 사이트로부터 받는 링크(백링크)의 수와 품질을 고려한다. 더 많은 신뢰성 있는 사이트에서 링크를 받을수록, 해당 페이지는 더 높은 권위를 가지게 된다.
- 사용자 경험: 페이지의 로딩 속도, 모바일 친화성, 사용자 인터페이스(UI) 등도 중요한 요소로 평가된다.
- 신선도(Freshness): 최신 정보일수록 더 높은 가치를 부여한다. 특히 뉴스나 시사적인 주제에서는 신선도가 중요하다.
- 페이지의 링크 구조: 내부 및 외부 링크가 어떻게 연결되어 있는지, 링크가 의미 있게 연결되어 있는지 평가한다.
- 사이트의 신뢰성: HTTPS 보안 적용 여부, 도메인 연령, 사이트 전체의 신뢰도도 고려된다.
5. 개인화된 검색 결과
검색 엔진은 사용자의 위치, 검색 기록, 기기 정보 등을 기반으로 맞춤형 결과를 제공한다. 예를 들어, 동일한 검색어를 입력해도 사용자의 검색 이력이나 위치에 따라 결과가 다를 수 있다. 이 과정은 개인화 알고리즘을 통해 이루어지며, 각 사용자에게 가장 적합한 정보를 제공하기 위한 노력이다.
6. 최종 랭킹 결정 및 검색 결과 제공
위의 다양한 랭킹 신호를 바탕으로 랭킹 알고리즘이 각 페이지의 최종 점수를 계산한다. 계산된 점수에 따라 검색 결과 페이지에서 웹페이지의 순서가 결정되며, 검색 엔진은 상위에 표시된 페이지가 사용자의 검색 의도에 가장 부합한다고 판단한다.
7. 피드백과 개선
검색 엔진은 사용자가 검색 결과를 클릭한 후의 행동을 분석하여, 해당 결과가 만족스러웠는지 판단한다. 예를 들어, 특정 결과를 클릭한 후 곧바로 뒤로 가기 버튼을 눌러 다른 결과를 찾는다면, 그 페이지는 검색 의도에 부합하지 않았다고 판단할 수 있다. 이를 통해 검색 결과의 품질을 지속적으로 개선한다.
검색 엔진의 랭킹 알고리즘은 공개된 공식 소스가 아니기 때문에, Google이나 다른 검색 엔진 회사는 구체적인 알고리즘 작동 방식을 공개하지 않는다. 이 글은 검색 엔진 최적화(SEO) 및 검색 엔진 작동 방식에 대한 전반적인 지식을 기반으로 작성된 것이며, 이러한 정보는 Google, Bing과 같은 검색 엔진의 공식 문서나 SEO 관련 가이드에서 제공하는 자료를 바탕으로 구성된 일반적인 개념들이다.
SEO의 주요 요소 : OnPage - Technical - Contents - OffPage
온페이지 SEO (On-Page SEO)
온페이지 SEO(On-Page SEO)는 웹페이지 내에서 직접적으로 수정할 수 있는 요소들을 최적화하여, 검색 엔진과 사용자 모두에게 페이지를 더 잘 이해시키고, 검색 결과에서 더 높은 순위를 차지할 수 있도록 돕는 작업을 말한다. 페이지 콘텐츠, HTML 코드, 메타데이터, 내부 링크 구조 등을 최적화하는 것이 주요한 부분이다. 온페이지 SEO는 사용자 경험(UX)을 고려하면서 키워드 타겟팅을 적절히 수행하는 것이 핵심이다.
온페이지 SEO 요소는 아래에서 다룰 테크니컬 SEO와 콘텐츠 SEO의 내용을 포괄하는 범주에 속하므로, 온페이지 SEO의 내용은 간략히 언급하고, 테크니컬 SEO와 콘텐츠 SEO를 보다 자세히 살펴보고자 한다.
테크니컬 SEO (Technical SEO)
검색 엔진은 사람과 달리 문서나 주제를 이해하는 언어 처리 능력이 제한적이다. 이러한 점에서 테크니컬 SEO(Technical SEO)는 웹사이트의 콘텐츠를 검색 엔진에 효과적으로 전달하고, 검색 엔진이 해당 웹사이트와 웹페이지 정보를 정확하게 이해하고 노출할 수 있도록 최적화하는 과정이다.
테크니컬 SEO(Technical SEO)는 웹사이트가 검색 엔진에서 더 쉽게 크롤링되고 인덱싱되며, 빠르게 로드될 수 있도록 하는 일련의 기술적 작업을 포함한다. 이는 검색 엔진 최적화(SEO)의 한 부분으로, 사용자에게 보이지 않는 웹사이트의 구조와 소스 코드에 초점을 맞춰 검색 엔진의 이해도를 높이고 검색 순위를 개선하는 데 중요한 역할을 하며, 페이지 로딩 속도,모바일 최적화,사이트 구조,보안,URL 구조등 다양한 요소를 포함한다.
테크니컬 SEO의 핵심 요소와 최적화 방법
1. 지연된 페이지 대신 빠른 페이지 제공하기
- 사이트 속도 최적화: 페이지 로딩 속도는 SEO와 사용자 경험에 있어 매우 중요하다. 구글은 페이지 로딩 속도가 빠를수록 상위에 노출되기 쉬운 사이트로 간주하며, 특히 모바일 환경에서의 속도가 중요하다.
- 이미지 압축: 모든 이미지 파일을 가능한 한 낮은 용량으로 압축하되, 화질이 떨어지지 않도록 무손실 압축을 권장 한다 TinyPNG, JPEGmini, Compressor.io 와 같은 이미지 압축 도구를 사용하면 용량을 쉽게 줄일 수 있다.
- CSS 및 JavaScript 최적화: 불필요한 공백, 주석 및 코드 줄을 제거하고, 코드를 압축하여 파일 크기를 줄이는 것이 중요하다. 필요한 경우 비동기 로딩을 적용하여 페이지가 로딩될 때 중요한 요소부터 표시되도록 한다.또한 리플로우, 리페인트(Reflow/Repaint)를 고려한 스타일링을 작성한다.
- 브라우저 캐싱 : 캐싱을 설정해 반복 방문자에게 필요한 리소스를 저장하여 페이지 로딩 속도를 개선한다.
🔗 구글의 브라우저 캐싱 🔗 토스에서 브라우저 캐시를 이용하는 법 - 콘텐츠 전송 네트워크(CDN) 사용: CDN은 전 세계 여러 위치에 서버를 두고 사용자에게 가장 가까운 서버에서 콘텐츠를 제공해 로딩 속도를 높인다. CDN을 사용하는 것은 페이지 로딩 속도 향상, 서버 부하 분산, 사용자 경험 개선, 웹 코어 바이탈 지표 개선, 보안 강화와 같은 다양한 이유로테크니컬 SEO의 최적화 방법으로 간주된다. 특히 구글은 페이지 로딩 속도가 검색 순위에 영향을 미치는 중요한 요소라고 여러 번 발표한 바 있다. 2010년 블로그 게시물을 통해 페이지 로딩 속도를 검색 순위에 반영하기 시작했다고 발표했다. 2018년에는 Speed Update라는 이름으로 모바일 검색 순위에서도 페이지 속도를 중요 요소로 반영하기 시작했다. 2020년에는 웹 코어 바이탈을 소개하면서 페이지속도가 사용자 경험과 밀접하게 연관되어 있다고 설명하였다. 이 업데이트는 LCP(최대 콘텐츠 렌더링 시간), FID(최초 입력 지연 시간) 등을 포함하며, 2021년에는 이를 페이지 경험 업데이트의 일환으로 검색 순위에 반영한다고 발표했다.
🔗 google webmaster central blog-모바일 환경 로딩 속도 검색 순위 반영(2018년 1월)
🔗 google search central blog-core web vitals와 페이지 경험 업데이트(2020년, 2021년)
🔗 google webmaster central blog-페이지 로딩 속도의 검색 순위 반영(2010년 4월)
2. 검색 엔진에서 크롤링 가능하게 하기
- 사이트 구조와 URL 최적화: 사이트 구조는 검색 엔진과 사용자 모두가 웹사이트를 쉽게 탐색할 수 있도록 하는 중요한 요소이다. 잘 구성된 사이트 구조는 검색 엔진 크롤러가 웹사이트의 모든 페이지를 인식하게 돕고, 사용자도 원하는 정보를 빠르게 찾을 수 있도록 한다.
- 간결한 URL 구조 설정: URL은 짧고 명확하며, 페이지 내용을 설명할 수 있는 키워드를 포함하여 설정한다. 예를 들어, example.com/services/web-design처럼 구성한다.
- 내부 링크 강화: 웹사이트 내 주요 페이지에 대한 링크를 적절히 배치하여 검색 엔진 크롤러가 사이트 내 다른 페이지로 쉽게 이동하도록 한다.
- 계층적 구조로 정리: 메인 카테고리와 하위 카테고리를 구성하여 중요한 페이지가 첫 번째 또는 두 번째 클릭 안에 도달할 수 있도록 한다.
- robots.txt 파일 관리: robots.txt 파일은 검색 엔진 크롤러에게 특정 페이지를 크롤링할지 말지를 알려주는 지침서다. 사이트의 중요하지 않거나, 노출될 필요가 없는 페이지는 크롤링하지 않도록 설정할 수 있다.
- 불필요한 페이지 차단: robots.txt 파일에 로그인 페이지, 관리 페이지 등 검색 결과에 노출될 필요가 없는 페이지를 차단한다.
- 중요한 페이지 크롤링 허용: 사이트의 중요한 페이지가 robots.txt 파일에 의해 차단되지 않도록 주의한다
3. 죽은 링크가 없도록 하기
404 오류 페이지와 브로큰 링크 수정: 404 오류 페이지는 존재하지 않는 페이지에 대한 요청이 있을 때 나타나며, 브로큰 링크는 사이트 품질을 떨어뜨리고 사용자 경험에 부정적 영향을 미친다.
- 정기적인 링크 점검: 웹사이트의 모든 링크가 유효한지 정기적으로 확인하고, 브로큰 링크를 발견하면 적절히 수정하거나 리디렉션한다.
- 사용자 친화적 404 페이지 제공: 사용자에게 필요한 정보를 제공할 수 있도록 친절한 404 오류 페이지를 만들어, 사용자 이탈을 줄인다.
4. 중복된 콘텐츠로 검색 엔진 혼란 주지 않기
- 캐논리컬 태그 적용: 캐논리컬 태그는 중복된 콘텐츠가 있을 경우 검색 엔진에 원본 페이지를 알려주는 역할을 한다. 이를 통해 중복 콘텐츠 문제를 예방하고, 검색 엔진이 올바른 페이지를 인식하도록 한다.
- 중복 콘텐츠 발생 시 캐논리컬 태그 사용: 같은 콘텐츠가 여러 URL에서 발견될 경우, 대표 페이지에 캐논리컬 태그를 적용하여 검색 엔진이 해당 페이지를 우선 인식하도록 한다.
- 플랫폼에서 자동 설정: WordPress와 같은 CMS 플랫폼에서는 캐논리컬 태그를 자동으로 설정해주는 플러그인을 사용할 수 있다.
5. 안전한 웹사이트 제공하기
- HTTPS와 보안 설정: 웹사이트에 SSL 인증서를 설치해 HTTPS로 전환하면 보안이 강화되며, 검색 엔진이 사이트를 신뢰할 수 있는 것으로 간주하여 순위에 긍정적인 영향을 미친다.
- SSL 인증서 설치: 사이트에 SSL 인증서를 적용하여 HTTPS로 전환하고, 모든 페이지에서 HTTPS를 사용하도록 리디렉션한다.
- HTTPS 적용 확인: 구글 서치 콘솔을 사용해 HTTPS가 올바르게 적용되었는지 확인한다. HTTP 버전이 남아 있지 않도록 주의한다.
6. 구조화된 데이터 제공하기
- 구조화된 데이터(Schema Markup) 적용: 구조화된 데이터(Schema Markup)는 웹페이지의 정보를 검색 엔진이 더 잘 이해할 수 있도록 돕는 HTML 태그다. 검색 결과에 리치 스니펫을 제공해, 사용자의 클릭률을 높이는 데 도움을 준다.
- Schema.org 사용: 이벤트, 리뷰, 제품 정보 등 특정 정보를 표시할 때 Schema.org를 통해 구조화된 데이터를 추가하여 검색 결과에서 더욱 풍부한 정보를 제공한다.
- 구글 리치 결과 테스트: 구글의 리치 결과 테스트 도구를 사용해 구조화된 데이터가 제대로 적용되었는지 확인한다.
7. 검색 엔진이 중요 콘텐츠를 놓치지 않도록 사이트맵 제공하기
- XML 사이트맵 제출: XML 사이트맵은 검색 엔진에 웹사이트의 페이지 구조를 알려주는 역할을 한다. 사이트맵을 통해 모든 중요한 페이지를 검색 엔진에 쉽게 인식시키고, 누락되는 페이지가 없도록 한다.
- 사이트맵 자동 생성: WordPress와 같은 플랫폼을 사용하거나 XML 사이트맵 플러그인을 통해 자동으로 사이트맵을 생성하고, 필요 시 수동으로 중요한 페이지를 추가한다.
- 구글 서치 콘솔에 사이트맵 제출: 사이트맵을 구글 서치 콘솔에 제출하여 검색 엔진이 새 페이지나 업데이트된 페이지를 빠르게 인식하게 한다.
8. 국제 웹사이트는 hreflang 사용하기
- 다국어 사이트의 hreflang 태그 적용: 다국어 웹사이트에서는 hreflang 태그를 사용하여 검색 엔진에 각 페이지의 언어와 지역을 명확히 알려줄 수 있다. 이를 통해 각 언어 버전 페이지가 올바른 검색 결과에 나타날 수 있다.
- hreflang 태그 적용: 다국어 페이지에 hreflang 태그를 추가하여, 각 언어와 국가에 맞는 페이지가 검색 결과에서 표시되도록 한다.
- 구글 서치 콘솔 확인: hreflang 태그가 올바르게 설정되었는지 구글 서치 콘솔에서 검토하여, 검색 엔진이 모든 언어 페이지를 잘 인식하도록 한다.
9. 모바일 친화적인 사이트 사용하기
- 모바일 친화성: 구글은 2018년부터 모바일 우선 인덱싱(Mobile-First Indexing)을 도입하여, 모바일 버전의 웹사이트를 기준으로 웹페이지를 평가한다. 이는 모바일 환경에 최적화된 사이트가 검색 엔진에서 유리함을 의미한다.
- 반응형 디자인 적용: 웹페이지가 모든 기기에서 자연스럽게 표시될 수 있도록 반응형 웹 디자인을 사용한다.
- AMP(Accelerated Mobile Pages) 사용: AMP는 구글에서 제공하는 프레임워크로, 모바일 페이지 로딩 속도를 높이는 데 효과적이다.
- 모바일 전용 UI 및 UX 고려: 모바일 화면 크기에 맞는 버튼 크기, 메뉴 배치 등을 설정해 사용자 경험을 최적화한다.
테크니컬 SEO를 점검하는 도구
- Google Search Console: 사이트맵 제출, 크롤링 오류 및 모바일 사용성 등을 점검할 수 있다.
- PageSpeed Insights: 사이트 속도와 성능을 분석하고, 최적화 방안을 제안해 준다.
- Screaming Frog: 사이트 크롤링 도구로, SEO 문제를 찾아낼 수 있다.
- GTMetrix: 페이지 로딩 속도와 성능을 테스트하고, 개선할 수 있는 요소를 보여준다.
- Ahrefs: 사이트 내 SEO 문제를 분석하고, 링크 구조 및 성능 데이터를 제공한다.
콘텐츠 SEO (Contents SEO)
콘텐츠 SEO는 웹사이트가 검색 엔진에서 더 잘 보이도록 콘텐츠를 최적화하는 작업이다. 이를 통해 사용자가 검색한 키워드와 관련된 유용한 정보를 제공하면서, 검색 결과에서 상위에 노출되도록 한다. 콘텐츠 SEO는 키워드 연구, 콘텐츠 구조, 글의 품질, 메타데이터 최적화와 같은 요소로 구성되며, 각 요소가 검색 순위에 큰 영향을 미친다.
최근 검색 엔진, 특히 구글은 콘텐츠 품질 평가에 있어 E-E-A-T 기준을 중요하게 고려하고 있다. 이는 단순히 검색 엔진 최적화를 넘어서, 사용자와 검색 엔진 모두가 신뢰하고 권위 있는 콘텐츠로 인식할 수 있도록 돕는다.
📚 E-E-A-T 기준 알아보기
E-E-A-T는 구글이 콘텐츠 품질을 평가하는 네 가지 기준으로, Experience(경험), Expertise(전문성), Authoritativeness(권위), Trustworthiness(신뢰성)을 의미한다. 구글은 이 기준을 바탕으로 사용자에게 신뢰할 수 있는 정보를 제공하고자 하며, 특히 YMYL (Your Money or Your Life)와 관련된 정보에서는 이 원칙이 더욱 중요하게 작용한다. YMYL은 건강, 재정, 법률과 같은 사람의 삶에 큰 영향을 미치는 정보를 포함하는데, 구글은 이와 관련된 정보가 정확하고 신뢰할 수 있어야 한다고 본다.
E-E-A-T의 중요성
구글은 E-E-A-T를 통해 콘텐츠의 품질을 평가하여 검색 순위에 반영한다. 특히 YMYL과 관련된 주제에서는 E-E-A-T 기준을 더 엄격하게 적용하여 사용자에게 정확하고 신뢰할 수 있는 정보를 제공하려고 하기 때문에 SEO를 전문적으로 다룰 때는 중요하게 생각해야 하는 원칙이다.
E-E-A-T 네 가지 기준과 최적화 방법
1.경험(Experience)
콘텐츠 작성자가 해당 주제에 대한 직접적 경험을 보유하고 있는지 평가한다. 특히 제품 리뷰나 특정 장소에 대한 평가와 같은 주제에서는, 작성자가 실제로 제품을 사용해 보았거나 장소를 방문해 보았는지가 중요한 평가 기준이 된다. 이로 인해 작성자가 전달하는 정보가 더 신뢰성 있고 생생하게 전달될 수 있다.
예시: 의료 기기 리뷰에서는 단순한 제품 스펙 나열이 아닌, 실제 의료 현장에서 기기를 사용해본 경험을 바탕으로 성능과 효용성에 대한 평가가 포함된다면, 해당 리뷰는 신뢰성을 높게 평가받을 수 있다.
최적화 방법 - 경험을 강조하기: 글이나 영상에 직접 경험한 이야기를 포함하여 신뢰성을 높인다. 예를 들어, 여행지를 추천할 때 직접 방문한 경험을 바탕으로 작성하는 것이다.
2. 전문성(Expertise)
작성자가 해당 주제에 대해 전문 지식과 역량을 갖추고 있는지를 평가한다. 의료, 금융, 법률 등과 같이 전문 지식이 필요한 분야에서는 관련 자격증을 보유하거나, 해당 분야에서 경력을 쌓은 전문가가 작성한 콘텐츠가 신뢰도를 높인다.
예시: 금융 투자 전략을 다룬 콘텐츠에서 CFA(공인재무분석사) 자격을 가진 전문가가 작성한 글이라면, 복잡한 금융 지식을 바탕으로 한 분석과 인사이트가 포함될 가능성이 크기 때문에 더 높은 전문성을 인정받을 수 있다.
최적화 방법 - 전문성 확보하기: 해당 분야의 전문가가 작성했거나 검수한 내용을 추가하여 신뢰를 강화한다. 예를 들어, 건강 정보라면 의사나 약사가 검수한 자료가 신뢰성을 높일 수 있다.
3. 권위(Authoritativeness)
작성자나 웹사이트가 해당 주제 내에서 얼마나 권위 있는 위치에 있는지를 평가한다. 신뢰받는 기관, 학계, 산업에서의 인정, 혹은 여러 신뢰할 수 있는 사이트로부터 링크를 받는 등의 방식으로 권위를 입증할 수 있다. 일반적으로 권위 있는 인물이나 기관이 작성한 콘텐츠는 그 주제에 대해 깊이 있고 신뢰할 만한 정보로 간주된다.
예시: 특정 의료 정보가 국립보건원(NIH)이나 세계보건기구(WHO) 등 권위 있는 기관의 웹사이트나 보고서를 인용한 콘텐츠라면, 해당 정보는 신뢰성이 높은 출처에 의해 뒷받침되므로 더 높은 평가를 받을 가능성이 있다.
최적화 방법 - 권위 강화하기: 신뢰받는 웹사이트와 연결하여 인용하거나, 소셜 미디어에서 활발히 활동하여 사이트의 권위를 높인다.
4. 신뢰성(Trustworthiness)
정보가 정확하고 정직하며, 출처가 명확히 제시되는지를 평가하는 요소다. 사용자에게 보안이 잘 유지되는 환경을 제공하고, 콘텐츠 내의 모든 정보가 검증 가능한 출처를 통해 제공되는지 여부를 중점적으로 평가한다. 특히 YMYL(Your Money or Your Life) 분야에서는 정확성과 보안이 가장 중요한 요소로 작용한다.
예시: 의료 정보가 포함된 웹사이트에서 HTTPS 보안 연결을 사용하며, 모든 내용이 명확한 출처와 검증을 거쳐 작성되었다면, 해당 웹사이트는 구글의 신뢰성 기준을 충족할 가능성이 높다. 또한, 작성자의 신상 정보와 자격이 명확히 표시되어 있으면 사용자에게 신뢰감을 줄 수 있다.
최적화 방법 - 신뢰성 보장하기: 투명한 저자 정보와 정확한 출처를 제공하며, 보안을 유지하는 사이트 구조(HTTPS 등)를 구축하여 사용자에게 신뢰감을 준다.
콘텐츠 SEO의 핵심 요소와 최적화 방법
1. 고객이 찾는 정보가 포함되도록 키워드 조사 & 연구하기
- 키워드 연구 및 선정: 키워드는 콘텐츠 SEO의 출발점이자 핵심이다. 사용자가 검색할 가능성이 높은 주요 키워드와 관련 키워드를 선정해 콘텐츠에 반영한다. 검색량이 높고 경쟁이 적절한 키워드를 선택하여, 사용자 검색 의도에 부합하는 콘텐츠를 작성해야 한다.
- 키워드 도구 활용: Google 키워드 플래너, Ahrefs, SEMrush와 같은 키워드 도구를 사용해, 검색량과 경쟁률을 분석하여 최적의 키워드를 선정한다.
- 롱테일 키워드 사용: 짧은 키워드보다는 3~4단어의 롱테일 키워드가 더 구체적이고, 사용자 의도에 맞는 경우가 많아 효과적이다. 예를 들어, “콘텐츠 마케팅” 대신 “소규모 비즈니스 콘텐츠 마케팅 전략”과 같은 롱테일 키워드를 사용한다.
- 관련 키워드 추가: 주요 키워드뿐 아니라, 관련 키워드도 함께 사용해 검색 엔진이 콘텐츠의 주제를 더 잘 이해하게 한다.
- 고품질 콘텐츠 작성:사용자에게 유용하고 가치 있는 콘텐츠를 제공하는 것이 콘텐츠 SEO의 핵심이다. 검색 엔진은 단순히 키워드가 많이 포함된 페이지보다는, 정보가 풍부하고 신뢰할 수 있는 페이지를 선호한다.
- 깊이 있는 내용 제공: 하나의 주제에 대해 심층적인 정보를 제공하고, 다양한 관점을 제시하여 사용자에게 가치 있는 정보를 제공한다.
- 텍스트 외 콘텐츠 활용: 텍스트뿐만 아니라 이미지, 비디오, 그래프 등 다양한 미디어 콘텐츠를 포함하여 가독성을 높이고, 정보 전달력을 강화한다.
- 오류 없는 글쓰기: 문법과 맞춤법 오류 없이, 논리적 흐름이 잘 잡힌 글을 작성하여, 사용자가 쉽게 이해할 수 있도록 한다.
2. 콘텐츠를 읽기 쉽고, 매력적으로 전달하기
- 콘텐츠 구조 및 가독성 향상: 콘텐츠의 구조가 명확해야 검색 엔진과 사용자가 콘텐츠를 쉽게 이해할 수 있다. 잘 구성된 콘텐츠는 사용자 경험을 향상시키며, 이는 검색 순위에 긍정적인 영향을 준다.
- 제목과 소제목 사용: H1, H2, H3와 같은 제목 태그를 사용하여 내용을 체계적으로 구성한다. 제목과 소제목에는 키워드를 포함시켜 검색 엔진이 콘텐츠 주제를 쉽게 파악하도록 한다.
- 짧은 문단 작성: 각 문단을 짧게 유지하고, 불필요한 정보는 줄여서 가독성을 높인다. 일반적으로 2~3문장으로 이루어진 짧은 문단이 이상적이다.
- 리스트와 번호 사용: 내용이 많은 경우, 리스트나 번호를 사용해 정보를 요약하고 쉽게 읽을 수 있도록 한다. 예를 들어, “5가지 콘텐츠 SEO 전략”처럼 리스트로 구성하면 사용자 이해도가 높아진다.
- 메타데이터 최적화: 메타데이터는 검색 엔진과 사용자가 콘텐츠에 대해 사전 정보를 얻을 수 있게 하는 요소다. 메타데이터는 제목(Title)과 메타 설명(Meta Description)으로 구성되며, 검색 결과 페이지에서 사이트의 첫인상을 좌우하는 중요한 역할을 한다.
- 제목 최적화: 메타 제목은 페이지의 핵심 키워드를 포함하면서, 50~60자 내외로 간결하게 작성한다. 사용자에게 페이지의 주제를 명확히 전달할 수 있도록 하며, 클릭을 유도할 수 있도록 매력적으로 작성한다.
- 메타 설명 최적화: 메타 설명은 150~160자 내외로 작성하여, 사용자가 페이지의 내용을 미리 알 수 있게 한다. 주요 키워드를 포함하되, 자연스럽게 문장을 구성하고, 사용자에게 유용한 정보를 전달하는 방식으로 작성한다.
- 키워드 포함: 메타 제목과 메타 설명에 핵심 키워드를 포함하여, 검색 엔진이 해당 페이지의 주제를 잘 인식할 수 있도록 한다.
3. 사이트 구조에 집중하기
- 내부 링크 최적화: 내부 링크는 사용자가 웹사이트 내에서 다른 관련 페이지로 이동할 수 있도록 하는 링크다. 내부 링크는 사이트 내 페이지의 권위와 가치를 전달하며, 검색 엔진이 웹사이트의 구조를 더 잘 이해할 수 있게 돕는다.
- 관련성 있는 페이지로 연결: 특정 페이지의 내용과 관련된 다른 페이지로 링크를 연결하여, 사용자에게 추가적인 정보를 제공하고 페이지 간의 연결성을 높인다.
- 앵커 텍스트 최적화: 내부 링크의 앵커 텍스트에는 해당 페이지의 주제를 설명하는 키워드를 포함한다. 예를 들어, “콘텐츠 마케팅 전략”이라는 텍스트로 관련 페이지를 링크한다.
- 페이지 깊이에 따른 링크 배분: 중요한 페이지일수록 내부 링크를 더 많이 연결하여, 검색 엔진과 사용자가 쉽게 접근할 수 있도록 한다.
4. 검색 의도와 목표에 대해 생각하기
- 사용자 검색 의도에 맞춘 콘텐츠 작성: 사용자가 특정 키워드를 검색할 때 기대하는 정보를 파악하여, 그에 맞는 콘텐츠를 제공하는 것이 중요하다. 이를 사용자 검색 의도(User Intent)라고 하며, 검색 의도에 따라 정보성, 거래성, 탐색성 콘텐츠를 각각 다르게 구성해야 한다.
- 검색 의도 분석: 해당 키워드의 검색 의도가 무엇인지 분석하고, 검색 엔진 상위에 노출된 경쟁 페이지를 참고해 어떤 유형의 콘텐츠가 인기 있는지 파악한다.
- 의도에 맞는 콘텐츠 제공: 정보성이 강한 키워드라면 상세한 가이드나 설명을 포함하고, 거래성 키워드일 경우 구매 관련 정보를 제공한다.
- 질문과 답변 형식 활용: 사용자의 궁금증을 해결할 수 있는 Q&A 형식으로 작성하여, 구체적이고 유용한 정보를 제공한다.
5. 최신 상태의 콘텐츠 유지하기
- 업데이트와 콘텐츠 재활용: 정기적인 콘텐츠 업데이트는 검색 엔진에 긍정적인 신호를 주며, 페이지의 신뢰도와 순위를 유지하는 데 도움을 준다. 과거에 작성한 콘텐츠를 최신 정보로 업데이트하거나, 다른 형식으로 변환해 콘텐츠 가치를 높일 수 있다.
- 콘텐츠 갱신: 트렌드 변화에 따라 콘텐츠를 주기적으로 업데이트하고, 필요한 경우 더 최신 정보를 추가해 신뢰성을 높인다.
- 다른 형식으로 변환: 기존 글을 인포그래픽, 동영상, 슬라이드 등 다양한 형식으로 변환해, 다른 사용자층에도 접근할 수 있도록 한다.
- 중복 콘텐츠 제거: 유사한 주제를 다루는 글이 여러 개일 경우 하나로 통합하거나, 새로운 글로 대체해 검색 엔진이 중복 콘텐츠로 혼동하지 않도록 한다.
콘텐츠 SEO를 위한 도구 활용
- Google Analytics: 콘텐츠의 성과를 추적하고, 사용자 유입 및 행동을 분석하여 콘텐츠 개선에 활용한다.
- Google Search Console: 검색어 분석, 클릭률, 인덱싱 상태 등을 확인하여 검색 순위와 콘텐츠 가치를 높이는 데 도움을 준다.
- Yoast SEO: WordPress 기반의 SEO 플러그인으로, 키워드 사용 빈도, 메타데이터 설정, 콘텐츠 구조 점검 등을 도와준다.
- Ahrefs, SEMrush: 키워드 조사, 경쟁 분석, 트래픽 분석 등을 통해 SEO 전략을 수립하는 데 유용하다.
🤔콘텐츠 SEO와 테크니컬 SEO가 유사한 내용을 다루는 이유
콘텐츠 SEO와 테크니컬 SEO는 목적이 다르지만 일부 겹치는 부분이 있는 것이 자연스러운 현상이다. 이 두 가지는 상호 보완적인 관계에 있기 때문에, 일부 요소가 겹치지만, 핵심 초점과 주요 작업 내용에는 분명한 차이가 있다.
콘텐츠 SEO와 테크니컬 SEO의 차이와 겹치는 이유
콘텐츠 SEO는 사용자와 검색 엔진이 페이지의 내용을 더 잘 이해하고, 가치 있는 정보로 인식하게 만드는 데 초점을 둔다.주요 작업은 키워드 연구, 고품질 콘텐츠 작성, 콘텐츠 구조 최적화와 같은 콘텐츠 중심의 작업이다. 목표는 사용자가 검색할 가능성이 높은 질문에 답변하거나 정보를 제공하는 방식으로 콘텐츠를 최적화해 사용자 경험을 개선하고 검색 결과에서 상위에 오르도록 돕는 것이다.
테크니컬 SEO는 검색 엔진이 웹사이트를 원활하게 크롤링하고 인덱싱할 수 있도록 기술적인 요소를 최적화하는 데 초점이 있다. 주요 작업은 사이트 속도 최적화, 모바일 최적화, 사이트 구조 개선, 보안 설정 등 웹사이트의 백엔드 기술과 구조 중심의 작업이다. 목표는 검색 엔진이 사이트의 모든 콘텐츠를 정확하게 이해하고 평가할 수 있게 함으로써, 검색 엔진이 사이트를 더 높은 순위에 배치할 수 있도록 지원하는 것이다.
콘텐츠 SEO와 테크니컬 SEO의 겹치는 부분은?
일부 겹치는 부분이 생기는 이유는 검색 엔진이 콘텐츠와 기술적인 요소를 통합적으로 평가하기 때문이다. 예를 들어, 사용자 경험(UX)을 향상시키는 작업은 콘텐츠와 기술적인 요소가 모두 관여한다.
모바일 친화성: 콘텐츠가 모바일에서 쉽게 읽히도록 하려면, 기술적인 요소(반응형 디자인)가 필요하고, 콘텐츠 자체도 모바일에 맞게 구성해야 한다.
사이트 구조와 내비게이션: 웹사이트의 구조가 잘 잡혀 있어야 콘텐츠를 쉽게 찾을 수 있으며, 이는 콘텐츠와 기술적인 요소 모두에 영향을 미친다.
페이지 속도: 페이지 속도가 빠를수록 사용자 경험이 향상되며, 이는 기술적인 최적화(이미지 압축, 코드 간소화)와 콘텐츠 관리(불필요한 스크립트나 대형 이미지 사용 자제)가 결합된 결과다.
메타데이터 최적화: 메타 제목과 설명은 콘텐츠의 일부분이지만, 검색 엔진이 이를 읽고 인식할 수 있도록 테크니컬 SEO가 뒷받침된다.
결론은? 서로 구분은 명확하나, 상호 보완적 관계!
명확한 구분: 콘텐츠 SEO는 콘텐츠 자체의 품질과 관련된 것이고, 테크니컬 SEO는 웹사이트의 기술적인 요소와 관련된 것이다.
상호 보완성: 웹사이트의 성능을 극대화하려면 이 두 가지가 조화를 이뤄야 한다. 따라서 겹치는 작업들이 일부 있으며, 이는 자연스럽고 필요하다.
콘텐츠 SEO와 테크니컬 SEO는 분명하게 다른 개념이지만, 겹치는 부분은 필연적으로 존재하며 이를 통합적으로 이해하는 것이 검색 최적화에 가장 효과적이다.
오프페이지 SEO (Off-Page SEO)
오프페이지 SEO(Off-Page SEO)는 웹사이트 외부에서 이루어지는 최적화 활동을 의미하며, 검색 엔진이 해당 사이트의 신뢰도, 권위, 인기도를 판단할 수 있도록 돕는 작업이다. 오프페이지 SEO는 주로 백링크(Backlink), 소셜 미디어, 브랜드 언급 등 외부 요인들을 포함하며, 사이트의 평판을 높이고 검색 결과에서 상위에 노출되도록 한다. 오프페이지 SEO는 콘텐츠 자체에 직접 관여하지 않고 외부에서 사이트의 신뢰성을 높이는 방식으로, SEO 전략에서 중요한 부분을 차지한다.
오프페이지 SEO의 핵심 요소와 최적화 방법
개발자가 오프페이지 seo를 최적화할 수 있는 방법은 하이라이트 표시
1. 양질의 링크 구축하기
- 백링크(Backlink) 구축 : 백링크는 다른 웹사이트가 본인의 웹사이트로 연결하는 링크를 의미하며, 검색 엔진이 해당 웹사이트를 신뢰할 수 있는 자원으로 인식하는 데 중요한 역할을 한다. 고품질 백링크는 웹사이트의 권위와 신뢰도를 높이며, 검색 순위에 긍정적인 영향을 미친다.
- 게스트 블로깅(Gust Blogging): 관련성이 높은 다른 웹사이트에 게스트 글을 작성하고, 글에 자신의 웹사이트 링크를 포함하여 자연스럽게 백링크를 유도한다.
- 리소스 페이지에 링크 추가: 관련 분야의 리소스 페이지나 링크 목록에 자신의 웹사이트가 포함될 수 있도록 요청한다.
- 콘텐츠로 백링크 유도: 유용하고 공유할 가치가 있는 콘텐츠(예: 인포그래픽, 연구 보고서)를 제공하여, 다른 사이트들이 자연스럽게 링크를 걸어주도록 한다.
- 깨어진 링크(브로큰 링크) 활용: 타 사이트에서 유사한 내용의 깨어진 링크를 발견하면, 해당 웹사이트 운영자에게 자신이 제공하는 콘텐츠로 링크를 대체하도록 요청한다.
2. 소셜 미디어 활동과 브랜드 언급량 늘리기
- 소셜 미디어 마케팅: 소셜 미디어는 직접적인 검색 순위 요소는 아니지만, 콘텐츠가 많은 사용자에게 노출되고, 공유됨으로써 간접적인 SEO 효과를 가져온다. 소셜 미디어에서 콘텐츠를 많이 공유하거나 언급되면 웹사이트의 가시성과 인지도가 높아진다.
- 일관된 브랜딩: 모든 소셜 미디어 채널에서 일관된 브랜드 이미지와 메시지를 전달하여 신뢰를 구축한다.
- 콘텐츠 공유 및 참여 유도: 블로그 포스트나 인포그래픽 같은 유용한 콘텐츠를 소셜 미디어에 정기적으로 공유하고, 사용자가 댓글이나 공유를 통해 참여할 수 있도록 한다.
- 해시태그와 키워드 사용: 소셜 미디어에서도 적절한 해시태그와 키워드를 사용하여 콘텐츠가 더 넓은 사용자에게 도달할 수 있도록 한다.
- 인플루언서와 협업: 해당 분야의 인플루언서와 협업하여 콘텐츠를 공유함으로써, 더 많은 사람들에게 사이트를 알린다.
- 인플루언서 마케팅: 인플루언서 마케팅은 영향력 있는 인플루언서를 통해 웹사이트를 소개하는 방식이다. 인플루언서를 통해 사이트가 언급되면, 사이트의 인지도와 신뢰도가 높아지고, 트래픽 증가에 도움이 된다.
- 관련성 높은 인플루언서 선택: 웹사이트의 주제나 업계와 관련된 인플루언서를 선정하여, 타겟 사용자에게 더 효과적으로 접근한다.
- 협업 콘텐츠 제작: 인플루언서와 함께 블로그 포스트, 동영상, 소셜 미디어 콘텐츠를 제작하고, 이를 인플루언서의 채널에 공유한다.
- 제품 리뷰와 추천 요청 : 인플루언서가 제품이나 서비스를 리뷰하고 추천하도록 하여, 사이트에 대한 신뢰성을 높인다.
- 브랜드 언급(Mentions): 다른 웹사이트나 소셜 미디어에서 브랜드 이름이 언급되는 것은 검색 엔진이 해당 사이트를 신뢰할 수 있는 브랜드로 인식하게 하는 데 도움을 준다. 이는 링크가 포함되지 않은 단순 언급이더라도 검색 엔진이 긍정적으로 평가할 수 있다.
- 브랜드 모니터링 도구 사용: Google Alerts, Ahrefs, Mention과 같은 도구를 통해 브랜드 언급을 모니터링하고, 링크가 없는 언급이 발견되면 해당 웹사이트에 백링크 요청을 한다.
- 언론 기사 및 보도자료 활용: 언론 매체에 브랜드 관련 기사나 보도자료를 제공하여, 웹사이트나 소셜 미디어에서 자연스럽게 브랜드가 언급될 수 있도록 한다.
- 포럼 및 커뮤니티 활동: 관련성 높은 온라인 커뮤니티나 포럼에서 질문에 답변하거나 정보를 제공하면서, 자연스럽게 브랜드를 언급한다.
3. 지역 지향적으로 집중하기
- 지역 SEO(Local SEO): 지역 SEO는 특정 지역에서 비즈니스를 운영하는 경우 효과적인 오프페이지 SEO 전략이다. 로컬 검색 결과에서 상위에 노출되도록 함으로써, 지역 사용자와의 접점을 늘릴 수 있다.
- Google My Business 등록: 비즈니스를 Google My Business에 등록하고, 주소, 연락처, 운영 시간 등을 최신으로 유지한다. 이 정보는 로컬 검색 결과에서 우선적으로 표시되므로, 지역 SEO에 필수적이다.
- 지역 디렉토리 등록: Yelp, Bing Places와 같은 지역 디렉토리에 비즈니스 정보를 등록하여 지역 사용자에게 더 잘 노출되도록 한다.
- 리뷰 관리: 고객 리뷰는 검색 순위와 평판에 영향을 준다. 고객에게 리뷰 작성을 유도하고, 긍정적이거나 부정적인 리뷰에 성실히 답변하여 신뢰를 쌓는다.
- 지역 키워드 활용: “서울 맛집”처럼 특정 지역 키워드를 웹사이트 콘텐츠에 포함하여, 해당 지역에서 검색될 때 더 쉽게 노출되도록 한다.
4. 주제에 대한 전문성이나 권위 보여주기
- 포럼과 Q&A 참여: 포럼이나 Q&A 사이트(예: Quora, Reddit, 네이버 지식인)에 참여하여 유용한 정보를 제공하고, 관련성이 높은 경우 자신의 웹사이트를 언급한다. 이는 웹사이트의 전문성과 권위를 높이는 데 도움이 된다.
- 전문성 있는 답변 제공: 단순한 홍보가 아닌, 구체적이고 신뢰할 수 있는 답변을 제공하여 전문성을 입증한다.
- 사이트 링크 삽입: 관련 질문에 답변할 때 자연스럽게 자신의 웹사이트 콘텐츠로 연결할 수 있는 경우, 링크를 삽입하여 추가 정보를 제공한다.
- 활동성 유지: 정기적으로 참여하여 활동성을 유지하고, 커뮤니티에서 신뢰를 얻는다.
오프페이지 SEO를 위한 도구 활용
- Ahrefs와 SEMrush: 백링크 분석, 경쟁사 링크 전략 파악, 브랜드 언급 모니터링 등에 사용한다.
- Google Alerts: 브랜드 언급이 발생할 때 알림을 받도록 설정하여, 빠르게 대응할 수 있다.
- BuzzSumo: 인기 있는 콘텐츠를 분석하고, 인플루언서나 링크 기회를 찾는 데 유용하다.
- Moz Local: 지역 비즈니스 정보를 온라인에 정확하게 배포하고, 로컬 검색 결과를 최적화하는 데 도움을 준다.
다양한 SEO 기법 : On SERP - Black Hat - White Hat
온서프 SEO (On-SERP SEO)
온서프 SEO는 검색 결과 페이지 내 구분된 다양한 영역 안에서 상위 랭킹을 목표로 하는 SEO전략이다. 검색 결과 페이지 안에서 보여지는 사이트, 블로그, 뉴스, 이미지, FAQ, 스니펫 등 다양한 구분된 영역에서 각 영역 별 상위 랭킹을 통해 더 많은 유입을 유도하기 위해 웹페이지에 대해 구조화된 데이터(Structured data)를 만들어서 최적화 시키는 작업이며 이과정에서 검색엔진이 이해할 수 있는 기술적인 요소를 갖추는 것이 중요하다.
온서프 SEO의 중요성
- 사용자 경험 향상: 사용자가 검색 결과에서 직접 답변을 얻을 수 있도록 하여 사이트 방문 없이도 필요한 정보를 제공함으로써 사용자의 만족도를 시킬 수 있다.
- 경쟁 우위 확보: 다른 웹사이트와의 경쟁에서 두드러지게 나타나기 때문에 브랜드 인지도를 높이고 클릭률을 향상시키는 데 기여할 수 있다.
- 트래픽 증가: 최적화된 SERP 항목은 자연스럽게 더 많은 클릭을 유도하여 웹사이트 방문자 수를 늘릴 수 있다.
온서프 SEO 주요 기법과 예시
해당기법은 Google에서 볼 수 있는 SERP 기능을 참고하여 작성되었다.
🔗 Google Search Central - Featured snippets
1. 레귤러 스니펫
레귤러 스니펫은 검색 결과에서 가장 기본적인 형태로, 웹 페이지의 URL, 콘텐츠 제목, 그리고 간략한 세부정보로 구성되어 있으며,사용자는 이 정보를 통해 특정 웹사이트가 제공하는 내용의 개요를 이해할수있다.
예시) 사용자가 “핸드드립커피내리는법” 이라고 검색할경우 레귤러 스니펫은 사용자에게 웹사이트의 기본 정보를 간략하게 제공한다
2. 리치 스니펫(Rich Snippets)
리치 스니펫은 구조화된 데이터를 활용해 검색 결과에 추가 정보를 표시하는 기능으로, 사용자에게 더 많은 맥락을 제공하여 클릭률을 높인다. 일반 스니펫의 정보에 더해 평점, 사진 등 부가적인 정보를 포함한다.
예시) 음식 레시피 웹사이트가 요리 시간, 칼로리, 재료 등의 정보를 구조화된 데이터로 제공하면, 검색 결과에 해당 정보가 함께 표시되어 사용자에게 유용한 정보를 제공한다.
3. 피처드 스니펫(Featured Snippet)
피처드 스니펫은 사용자에게 직접적인 답변을 제공하는 SERP의 상단에 위치한 박스이다. 주로 질문 형식의 검색어에 대해 나타나며, 사용자가 원하는 정보를 신속하게 찾을 수 있도록 돕는다. 피처드 스니펫은 문단형, 리스트형, 테이블형, 비디오형 이렇게 네 개의 종류로 구분지어 질 수 있다.
예시) 하늘이 파란 이유는 무엇인가?” 라는 질문에 대해 관련블로그에서 해당 이유에 대한 간단 설명을 제공하며,이 내용은 피처드 스니펫으로 나타낼 수 있다.
구조화된 데이터
구조화된 데이터는 웹페이지의 콘텐츠를 검색 엔진이 쉽게 이해할 수 있도록 특정 규칙에 따라 체계적으로 표현한 정보이다. 검색 엔진은 이러한 구조화된 데이터를 통해 페이지의 내용을 더 명확하게 파악하고, 사용자에게 보다 관련성 높은 정보를 제공할 수 있으며, 다양한 스니펫의 정보를 제공하여 검색 결과 페이지(SERP)에서 더 눈에 띄게 만들 수 있다.
구조화된 데이터는 스키마 마크업(Schema Markup)을 통해 HTML 코드에 추가된다. Schema.org 에서 제공하는 스키마 마크업을 활용하여 HTML에 구조화된 데이터를 적용하면, 검색 결과 페이지(SERP)에서 리치 스니펫이나 피처드 스니펫 등의 형태로 정보가 표시된다.
🔗 Google Search Central - Structured Data
스키마의 3가지 형식
JSON-LD(JavaScript Object Notation for Linked Data)
JSON-LD는 JavaScript 코드 형식으로 데이터를 구조화하며, 페이지의 <head> , <body> 섹션에 <script *type*="application/ld+json"> 태그로 삽입된다. 스크립트 태그 내에서 필요한 데이터를 한 번에 선언하여 HTML 코드와 분리해 관리할 수 있어, 유지보수가 용이하고 검색 엔진 크롤러에 자동으로 인식되므로 대표적으로 권장되는 형식이다. 🔗 JSON-LD
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Person",
"name": "John Doe",
"jobTitle": "Software Engineer",
"telephone": "(555) 555-5555",
"url": "http://www.example.com"
}
</script>
Microdata
Microdata는 HTML 태그 속성을 사용해 데이터를 구조화하며, 웹페이지의 HTML 코드에 직접 삽입된다. 각 항목에 대해itemscope와itemtype속성으로 스키마 유형을 지정하고,itemprop속성을 통해 항목의 세부정보를 정의한다. 🔗 Microdata
<div itemscope itemtype="https://schema.org/Person">
<span itemprop="name">John Doe</span>
<span itemprop="jobTitle">Software Engineer</span>
<span itemprop="telephone">(555) 555-5555</span>
<a href="http://www.example.com" itemprop="url">Website</a>
</div>
RDFa (Resource Description Framework in Attributes)
RDFa는 HTML이나 XML 문서에 메타데이터를 포함하기 위한 표준화된 방법이다. 자원 설명 프레임워크(RDF)를 기반으로 하며, Microdata와 마찬가지로 태그의 속성을 통해 구조화된 데이터를 정의한다. vocab과typeof속성으로 객체의 유형을 정의하고,property속성으로 데이터를 설정한다. 🔗 rdfa
<div vocab="https://schema.org/" typeof="Person">
<span property="name">John Doe</span>
<span property="jobTitle">Software Engineer</span>
<span property="telephone">(555) 555-5555</span>
<a href="http://www.example.com" property="url">Website</a>
</div>
스키마 마크업 관련 도구
- 스키마 오류 검사 : 웹페이지의 구조화된 데이터가 Schema.org의 규격에 맞게 작성되었는지 검사하여, 오류나 경고를 제공함으로써 최적화에 도움을 준다.
🔗 https://validator.schema.org - 리치 스니펫 결과 확인: 검색 엔진에서 리치 스니펫이 어떻게 표시될지를 미리 확인할 수 있으며,스키마 마크업이 올바르게 설정되었는지와 검색 결과에서의 최종 결과를 미리 검토할 수 있다
🔗 https://search.google.com/test/rich-results?hl=ko
블랙햇 SEO (Black Hat SEO)
블랙햇 SEO는 검색 엔진의 알고리즘을 속이거나 조작하여 단기적으로 검색 순위를 높이기 위한 비윤리적인 SEO 기법을 의미한다. 이는 구글과 같은 검색 엔진의 정책을 위반하는 방법이기 때문에, 사이트가 일시적으로 상위에 노출될 수 있지만, 검색 엔진에 의해 패널티를 받거나 검색 결과에서 완전히 제거될 위험이 크다. 블랙햇 SEO는 장기적인 성장보다는 단기적인 트래픽 증가를 목적으로 하며, 사용자가 아닌 검색 엔진을 속이는 데 초점을 맞추기 때문에 위험하다.
블랙햇 SEO 주요 기법과 예시
*구글 스팸 정책 문서를 살펴보면 아래 사항들 외에도 다양한 스팸 정책들을 확인할 수 있다.
1. 키워드 스터핑(Keyword Stuffing)
키워드 스터핑은 페이지의 자연스러운 흐름과 관계없이 특정 키워드를 과도하게 반복해서 사용하는 기법이다. 이를 통해 검색 엔진이 해당 키워드와 관련된 페이지로 인식하게 하여 검색 결과에서 상위에 노출시키려는 의도다.
예를 들어, “저렴한 신발”이라는 키워드로 상위에 노출되기 위해 “저렴한 신발을 찾고 있다면 저렴한 신발을 구입하세요. 저렴한 신발은 저희 사이트에서 저렴하게 판매합니다”처럼 문맥에 맞지 않게 키워드를 반복하는 방식이다. 이 경우, 사용자에게 불쾌감을 주며, 구글은 이를 감지하여 검색 순위를 떨어뜨리거나 패널티를 부과할 수 있다.
🔗 Google Search Central - Keyword Stuffing
2. 숨김 텍스트와 숨김 링크(Hidden Text and Hidden Links)
숨김 텍스트는 사용자에게는 보이지 않도록 하면서 검색 엔진 크롤러에게만 텍스트나 링크를 보여주는 기법이다. 주로 흰색 배경에 흰색 텍스트를 넣거나, CSS를 이용해 텍스트를 숨기고, 키워드나 링크를 과도하게 삽입하는 방법으로 사용된다.
예를 들어, 배경이 흰색인 페이지에 흰색 텍스트로 “저렴한 신발, 할인가 신발, 최저가 신발”이라는 키워드를 반복 삽입하여, 사용자에게는 보이지 않지만 검색 엔진에는 인식되게 한다. 이 방법은 검색 엔진의 허용 정책을 위반하며, 구글은 이를 발견할 경우 심각한 패널티를 부과한다.
🔗 Google Search Central - Hidden Text
3. 문서 내 콘텐츠 복제 및 미러 사이트(Duplicate Content and Mirror Sites)
중복 콘텐츠는 다른 사이트나 동일한 사이트 내에서 동일한 콘텐츠를 반복 사용하는 기법이다. 이는 검색 엔진이 페이지를 독립적인 페이지로 인식하게 하여 노출 빈도를 높이려는 의도다. 또한 미러 사이트는 동일한 콘텐츠를 가진 여러 사이트를 생성하여, 특정 검색어에 대해 여러 페이지가 상위에 오르도록 하는 방법이다.
예를 들어, 한 쇼핑몰 사이트가 동일한 제품 설명을 여러 페이지에 중복해서 사용하여, 같은 내용이 다른 페이지에도 반복 노출되게 한다. 또는 동일한 콘텐츠를 가진 여러 사이트를 개설하여 각각의 사이트가 검색 결과에 나타나게 하는 방법이다.
🔗 Google Search Central - Duplicate Content
4. 링크 농장(Link Farming)
링크 농장은 여러 사이트들이 서로 무작위로 링크를 주고받으며, 인위적으로 외부 링크를 증가시키는 방식이다. 이는 검색 엔진이 해당 사이트를 권위 있는 사이트로 착각하게 하여, 검색 순위를 인위적으로 올리기 위해 사용된다.
예를 들어, 특정 웹사이트 그룹이 서로의 사이트를 무작위로 링크하며, 외부 링크가 많아 보이게 조작하는 것이다. 예를 들어, A, B, C 사이트가 서로 링크를 교환하여 외부 링크 수를 부풀린다. 하지만 검색 엔진은 이러한 패턴을 감지할 수 있으며, 발견 시 모든 사이트에 패널티를 부과할 수 있다.
🔗 Google Search Central - Link Schemes
5. 자동 생성 콘텐츠(Auto-Generated Content)
자동 생성 콘텐츠는 소프트웨어를 이용해 자동으로 생성된 의미 없는 콘텐츠로, 검색 엔진이 “콘텐츠가 풍부한 사이트”로 인식하게 하려는 방법이다. 이런 콘텐츠는 사용자를 위해 유용한 정보를 제공하지 않으며, 검색 엔진의 품질 평가에 부합하지 않는다.
예를 들어, 기사 생성 프로그램이나 스크래퍼를 이용해 무작위 텍스트를 조합하거나, 번역기를 돌려 비슷한 내용의 문장을 반복적으로 생성해 페이지를 채우는 경우가 있다. 이러한 콘텐츠는 사용자 경험을 떨어뜨리기 때문에, 구글은 자동 생성 콘텐츠를 엄격하게 금지하고 있다.
🔗 Google Search Central - Automatically Generated Content
6. 피싱 링크와 리디렉션(Phishing Links and Sneaky Redirects)
피싱 링크는 사용자에게 의도와 다른 페이지로 리디렉션하는 링크를 숨기거나, 클릭 후 의도치 않은 페이지로 보내는 방식이다. 이는 사용자를 특정 페이지로 유도한 후 다른 페이지로 리디렉션해 클릭 수를 조작하거나, 악성 사이트로 연결되도록 하는 위험한 기법이다.
예를 들어, “할인 이벤트” 같은 링크를 클릭하면 다른 광고 페이지나 피싱 사이트로 이동하도록 하여 트래픽을 조작하는 방식이다. 사용자는 클릭할 때 본래 사이트로 이동할 것으로 예상하지만, 숨겨진 리디렉션을 통해 광고 페이지로 유도된다.
🔗 Google Search Central - Sneaky Redirects
화이트햇 SEO (White Hat SEO)
화이트햇 SEO(White Hat SEO)는 검색 엔진의 정책과 가이드라인을 준수하면서, 사용자가 실제로 유용하게 느낄 수 있는 방식으로 웹사이트의 순위를 올리는 SEO 기법이다. 화이트햇 SEO는 장기적인 성과와 안정적인 순위를 유지하는 데 초점을 맞추며, 구글과 같은 검색 엔진이 권장하는 윤리적인 SEO 방법이다. 이는 블랙햇 SEO와 달리 검색 엔진으로부터 패널티를 받지 않으면서 신뢰도와 권위를 높일 수 있는 최적화 방식이다.
화이트햇 SEO의 주요 기법과 예시
1. 고품질 콘텐츠 작성
고품질 콘텐츠 작성은 검색 엔진과 사용자 모두에게 가치를 제공하기 위해 가장 중요한 요소다. 구글은 사용자에게 유용한 정보를 제공하는 콘텐츠를 선호하며, 이를 검색 순위에 반영한다. 이때, 키워드 스터핑을 피하고, 자연스러운 흐름으로 정보 전달을 해야 한다.
예를 들어, 여행 정보 웹사이트를 운영한다면, 단순히 목적지 이름을 나열하는 대신, 특정 여행지의 현지 문화, 추천 일정, 여행 팁과 같은 구체적인 정보를 제공한다. 이를 통해 사용자는 유용한 정보를 얻고, 구글도 해당 페이지를 높은 순위로 평가한다.
🔗 Google Search Central - Creating helpful, reliable, people-first content
2. 키워드 연구와 자연스러운 키워드 사용
키워드 연구는 사용자가 검색할 가능성이 높은 키워드를 분석하고, 이를 콘텐츠에 자연스럽게 포함시키는 작업이다. 주요 키워드를 사용하여 검색 엔진이 페이지의 주제를 쉽게 이해하게 하고, 관련 키워드를 추가해 검색 엔진이 주제를 더 넓게 이해하도록 돕는다.
예를 들어, “서울 여행 가이드”라는 키워드를 사용하여 콘텐츠를 작성할 때, 관련된 장소명, 서울 맛집, 교통 정보와 같은 키워드를 자연스럽게 추가한다. 이렇게 하면 사용자가 서울 여행과 관련된 다양한 정보를 얻을 수 있고, 구글은 이 페이지가 서울 여행 주제에 깊이 있는 정보를 제공한다고 판단한다.
🔗 Google Search Central - Keyword usage
3. 메타데이터 최적화 (메타 제목과 설명)
메타데이터 최적화는 검색 결과 페이지에서 사용자에게 사이트 정보를 잘 전달하고, 클릭을 유도하는 데 중요하다. 메타 제목(Meta Title)과 메타 설명(Meta Description)은 콘텐츠의 요약을 포함하며, 검색 엔진과 사용자에게 페이지의 핵심 내용을 알려준다.
예를 들어, 쇼핑몰 웹사이트가 “여름 원피스” 페이지를 운영한다고 할 때, 메타 제목을 “트렌디한 여름 원피스 – 다양한 스타일과 컬러”로 설정하고, 메타 설명을 “여름에 딱 맞는 다양한 스타일의 원피스를 지금 만나보세요. 무료 배송 및 할인 혜택 제공”처럼 작성하여, 사용자가 클릭하고 싶도록 만든다.
🔗 Google Search Central - Writing page titles and descriptions
4. 내부 링크 최적화
내부 링크는 웹사이트 내 다른 페이지로 연결되는 링크로, 사용자와 검색 엔진이 중요한 페이지로 쉽게 접근할 수 있도록 돕는다. 이를 통해 사이트 구조가 잘 연결되고, 검색 엔진 크롤러가 모든 페이지를 쉽게 탐색할 수 있다.
예를 들어, 블로그 포스트에서 관련된 다른 글로 자연스럽게 연결하는 링크를 삽입한다. “서울 여행 가이드” 글 안에 “서울 맛집 추천” 글의 링크를 삽입하여, 사용자가 필요에 따라 다른 정보를 더 쉽게 얻도록 한다. 검색 엔진은 내부 링크를 통해 사이트의 주요 페이지를 파악하고, 연결된 페이지의 가치를 높이 평가할 수 있다.
🔗 Google Search Central - Link best practices
5. 모바일 최적화
구글은 모바일 우선 인덱싱(Mobile-First Indexing)을 도입하여, 웹사이트의 모바일 버전을 기준으로 페이지를 평가한다. 따라서, 모바일 친화적인 웹사이트를 구축하는 것은 SEO에서 필수적이다.
예를 들어, 반응형 웹 디자인을 적용하여, 화면 크기에 맞게 웹페이지가 자동으로 조정되도록 한다. 텍스트, 버튼, 메뉴 등을 모바일에서도 쉽게 접근할 수 있도록 배치한다. 예를 들어, 가독성을 높이기 위해 작은 텍스트 대신 큰 텍스트를 사용하고, 터치하기 쉬운 버튼을 제공하는 것이 좋다.
🔗Google Search Central - Mobile-Friendly Websites
6. 고품질 백링크(Backlink) 확보
백링크는 다른 웹사이트에서 자신의 웹사이트로 연결된 링크를 의미하며, 구글은 신뢰할 수 있는 사이트로부터 백링크를 많이 받는 사이트를 권위 있는 사이트로 간주한다. 고품질 백링크를 확보함으로써 검색 엔진의 신뢰도와 권위성을 높일 수 있다.
예를 들어, 관련성이 높은 사이트에 게스트 글을 기고하거나, 유용한 인포그래픽을 제작해 공유하도록 한다. 예를 들어, 식품 관련 정보를 제공하는 웹사이트가 “건강한 식단”에 관한 인포그래픽을 제작해 공유하고, 다른 건강 관련 사이트가 이를 링크해준다면 고품질 백링크로 작용한다.
🔗 Google Search Central - Link building and best practices
7. 사용자 경험(UX) 개선
구글은 사용자 경험(UX)을 매우 중요하게 평가하며, 페이지에서 사용자가 쉽게 정보를 찾고, 불편 없이 탐색할 수 있도록 최적화하는 것이 좋다. 특히, 페이지 로딩 속도, 직관적인 디자인, 사용자 편의성이 중요한 요소다.
예를 들어, 페이지 로딩 속도를 높이기 위해 이미지와 동영상 파일 크기를 줄이고, 불필요한 스크립트를 제거한다. 또, 중요한 정보를 찾기 쉽게 메뉴 구조를 간단하게 하여 사용자가 원하는 정보를 신속하게 찾을 수 있도록 한다. 쇼핑몰 사이트의 경우, 검색창과 카테고리 메뉴를 명확하게 두어 사용자가 쉽게 탐색하도록 만든다.
🔗 Google Search Central - Page Experience
참고링크
검색엔진 프로세스 참고링크
🔗 MDN Web Docs - Robots.txt
🔗 Moz - Search Engine Crawlers
🔗 Ahrefs Blog - How Search Engines Work
🔗 구글 검색엔진 크롤링, 인덱싱, 랭킹 요소 알아보기
🔗 구글 검색 알고리즘 유출 11가지 핵심 내용
🔗 SEO (검색엔진 최적화)란? – 구글, 네이버 가이드 총정리
🔗 구글 검색엔진 작동원리 크롤링 정의와 과정
🔗 Ahrefs Blog - Crawl Me Maybe? How Website Crawlers Work
🔗 Ahrefs Blog - How Google’s Indexing Works
🔗 Cloudflare Blog - What is a Web Crawler?
🔗 Google Search Central - Introduction to Crawling and Indexing
seo 주요 요소 참고 링크
🔗 SEO Starter Guide
🔗 Moz Beginner’s Guide to SEO
🔗 Yoast SEO Blog
🔗 Ahrefs Blog
🔗 SEMrush Academy
🔗 Backlinko Blog
🔗 Neil Patel Blog
테크니컬 seo
🔗 테크니컬 SEO 핵심 7가지
🔗 검색엔진 최적화 첫걸음, 테크니컬 SEO 정의와 필수 체크리스트
🔗 Ahrefs Blog - What Is Googlebot & How Does It Work?
읽어보면 좋은 seo 관련 블로그 & 실용 사례
🔗 원티드랩 - 웹 성능 최적화 SSR + Cache 적용기
🔗 카카오 - SEO 개선 초심자 가이드
🔗 스키마 마크업 | 초심자 가이드 – 검색결과 (SERP) 에서 돋보이기
🔗 현실적이고 효과적인 SEO 최적화 방법 - 기술편
🔗 구글 SEO를 위한 Schema.org 마크업 추가하기
🔗 뱅크샐러드 - "검색엔진 가이드"를 금융쇼핑 서비스에 SEO로 활용하기
🔗 한글과 컴퓨터 - SEO 톺아보기 – 정말 SSR이 SEO에 좋을까?
'개발지식 백과사전' 카테고리의 다른 글
[브라우저 / 운영체제] CPU와 GPU의 차이점 (0) | 2023.04.18 |
---|---|
[네트워크] TCP 3-way-handshake , 4-way-handshake (0) | 2023.04.17 |
CORS (0) | 2022.03.22 |
GET , POST 차이점 (0) | 2022.03.22 |
TCP 와 UDP (0) | 2022.03.22 |