구글은 2013년부터 일본 사용자를 대상으로 검색에 대한 궁금증을 풀어주는 오피스 아워를 정기적으로 진행해 왔습니다. 몇 차례의 리브랜딩을 거쳐 2023년 5월부터 새롭게 구글 검색 오피스 아워를 시작하게 되었습니다. 오늘 8월 10일, 구글은 SEO 담당자, 엔지니어, 디자이너, 마케팅 등 사이트 운영에 관련된 모든 분들의 구글 검색 관련 질문에 구글 직원들이 직접 답변하고 있습니다. 특별히 이번 도쿄 행사는 구글 Gary Illyes씨가 직접 참여하여 SEO에 대한 라이브 Q&A를 제공합니다. 이번 세션은 한국어 SEO에도 중요한 내용을 포함하고 있다고 판단하여 인터애드 뉴스레터에 주요 쟁점을 소개합니다.
구글이 E-E-A-T를 평가하는 방법은 무엇인가요?
먼저, 용어의 정의를 설명드리겠습니다. E-E-A-T는 Experience(경험), Expertise(전문성), Authoritativeness(권위성), Trust(신뢰)의 약자입니다. 이러한 요소를 통해 높은 품질의 콘텐츠를 제공하기 위해 구글은 담당자의 역량을 평가하고 검색 품질을 개선하는 데 도움이 됩니다. 이때 평가자들은 직접 콘텐츠를 평가하는 것이 아닌, 검색 결과에 대한 위치와 순위에 대해 의견을 제시하는 권한은 없습니다. 이 과정은 기본적으로 A/B 테스트와 유사하며 어느 쪽이 더 나은 결과를 제공하는지를 평가하는 것입니다. 평가자들은 다양한 예시를 통해 훈련을 받고 있으며, 더 자세한 내용은 구글 검색 품질 평가 가이드라인을 확인하시기 바랍니다.
생성형 콘텐츠에 대한 대책이 있나요? 또한, 어필리에이트 사이트나 요약 시스템과 같은 콘텐츠가 다량인 경우에 대해 어떤 접근 방식이 좋을까요?
Gary: 구글은 오랫동안 대량 생성 콘텐츠에 대응해왔습니다. 생성형 콘텐츠는 구글 검색에서 이미 오랜 기간 동안 존재하는 요소입니다. 예를 들어 금융 사이트에서는 10년 이상 동안 금융 뉴스나 금융 리포트와 같은 콘텐츠가 생성되어 왔습니다. 그러나 생성형 AI를 활용하여 콘텐츠를 작성할 때 주의가 필요합니다. 이러한 AI는 적절한 가이드 없이 훈련되었을 경우 문제가 발생할 수 있습니다. 예를 들어, 쳇지피티 나 바드와 같은 언어 모델을 API로 사용할 때 콘텐츠의 진위와 품질을 확인하지 않고 자동으로 게시하면 문제가 발생할 수 있습니다. 구글은 오랫동안 이러한 문제에 대응하기 위한 특별한 알고리즘을 개발해왔습니다. 예를 들어, "팬더(Panda)"라 불리는 알고리즘이 있었는데, 이는 특정 유형의 콘텐츠를 식별하여 제거하는 역할을 효과적으로 수행하였습니다. 또한 기계 학습 기술의 발전으로 인해 구글은 기계가 생성한 저품질 콘텐츠를 더욱 정확하게 식별할 수 있게 되었습니다. 우리는 이미 유용한 콘텐츠 업데이트(HCU) 알고리즘을 출시하였으며, 사용자들이 검색 결과에서 고품질 정보를 경험할 수 있도록 지속적으로 개선하고자 합니다.
UGC(사용자 생성 콘텐츠) 사이트의 품질 유지에 대한 접근 방식에 대해 알려주세요.
UGC 사이트에 관한 질문은 SEO 측면뿐만 아니라 일반적인 관점에서 중요한 문제입니다. UGC 사이트는 청결한 상태(스팸이 없는)를 유지하는 것이 좋습니다. 이것은 SEO에만 영향을 미치는 것이 아니라 사용자 경험에도 영향을 미칩니다. 사이트 내부 포럼 댓글 등의 스팸이 포함되어 있다면 사용자들의 신뢰를 해치게 될 것입니다. 이를 방지하기 위해 구글은 시스템을 통해 스팸 여부를 판단합니다. 계정 생성 또는 게시물 작성 시 확인과 같은 방법을 사용하여 시스템적으로 스팸을 차단할 수 있습니다. 또한 사용자들의 보고를 통해 신뢰할 수 없는 콘텐츠를 사전에 검토할 수 있는 방법도 있습니다. 사용자들은 이러한 신뢰성을 강화하기 위해 사이트 내에서 직접 활용할 수 있는 기능을 활용할 수 있습니다.
SEO 관점에서는 "rel ugc", "rel nofollow" 등을 활용하여 UGC 콘텐츠를 관리할 수 있습니다. UGC에서 스팸을 방지하는 방법에 대해서는 검색 센터 문서를 참고하시면 됩니다.
생성형 AI가 작성한 콘텐츠에 대한 구글의 입장은 어떤가요?
Gary: 구글은 콘텐츠가 누구에 의해 작성되었는지나 어떤 방식으로 작성되었는지에는 크게 관심을 두지 않습니다. 구글이 중요하게 여기는 것은 콘텐츠의 품질입니다. AI가 생성한 콘텐츠가 구조화된 데이터나 메타데이터와 같은 주석을 통해 강조되면 이는 좋은 아이디어입니다. 사용자 관점에서는 자동 생성된 콘텐츠와 인간에 의해 생성된 콘텐츠를 구분하고 싶을 수 있습니다. 따라서 읽는 사람들이 어떤 방식으로 콘텐츠가 생성되었는지를 알 수 있도록 주의가 필요합니다. 결국 구글은 사용자에게 양질의 콘텐츠를 제공하는 것이 가장 중요하다고 생각하고 있습니다.
대규모 사이트의 SEO 전략 및 크롤링 최적화 방법에 대하여
Gary: 대규모 사이트의 경우, 구글 개발자 센터를 방문하여 상세한 정보를 확인하는 것이 좋습니다. 중복된 콘텐츠가 너무 많이 포함되지 않도록 주의해야 합니다. 중복된 콘텐츠로 인해 크롤링 예산이 낭비될 수 있습니다. 크롤러가 사이트의 적절한 부분으로 이동할 수 있도록 robots.txt나 로그인 양식 등을 설정해야 합니다. 구글 및 기타 검색 엔진 로봇이 사이트의 특정 부분을 우선 순위대로 크롤링하도록 제어하는 것이 중요합니다.
인덱싱 수치가 낮아져서 걱정입니다. 어떻게 해결할 수 있을까요?
구글은 모든 콘텐츠를 색인화하지 않습니다. 구글은 콘텐츠의 품질과 관련하여 선택적으로 색인화합니다. 인덱싱되지 않는 경우, 콘텐츠의 품질 문제가 있는 경우가 많습니다. 먼저 테크니컬 문제와 콘텐츠 품질 문제를 분리하여 고민해야 합니다. 양질의 콘텐츠를 제작하고 유지하는 노력이 필요합니다. 특히 인덱싱 문제가 테크니컬 문제가 아닌 경우, 콘텐츠의 품질을 개선하는 것이 중요합니다.
동적 렌더링과 서버 사이드 렌더링이 구글 검색 실적에 미치는 영향은 어떤가요?
Gary: 우선 저는 자바스크립트를 좋아하지 않습니다(청중 웃음). 자바스크립트를 사용하지 않으면 이 문제를 피할 수 있습니다. 각 사이트의 특성에 따라 어떤 방식이 적합한지는 비즈니스적인 결정이 필요합니다. 서버 사이드 렌더링(SSR)의 경우 서버 리소스 비용이 많이 들 수 있습니다. 렌더링은 비용이 큰 작업이므로 더 많은 비용이 들 수 있습니다. 반면 동적 렌더링은 일부를 클라이언트로 푸쉬하기 때문에 비용을 줄일 수 있습니다. 그러나 동적 렌더링의 경우 로딩 문제나 API 호환성 등으로 일부 정보를 놓칠 수 있는 점이 있습니다. 서버 사이드 렌더링을 사용하면 브라우저나 Googlebot에게 전달하는 HTML을 완벽하게 제어할 수 있습니다. 그러나 장기적으로는 서버 사이드 렌더링이 더 많은 비용을 필요로 하므로 비즈니스적인 판단이 필요합니다. 구글 관점에서는 SSR이 좀 더 나은 선택일 수 있습니다. 이로써 구글은 추가 리소스를 요청하지 않고 콘텐츠를 읽을 수 있습니다.