들어가는 말
요즘 (2025년 2,3월 경) 네이버 블로그들이 대량으로 저품질에 빠지거나 블로그 지수가 대폭 하락하는 현상들이 생겼습니다. 유튜브 등에 보면 그것에 연관해서 여러가지 많은 이야기들이 있는 것을 볼 수 있습니다.
이 글에서는 그 난리의 원인을 잘 살펴 보도록 하겠습니다. 그리고 대책은 없습니다. 그런 건 저 같은 사용자가 어떻게 할 수는 없는 일이니까요. 다만, 약간씩 피해가는 요량만 간단히 말해 보겠습니다.
AI 자동화 글 '단속'에 대한 생각
네이버는 공개적으로 'AI 자동화'에 의해 양산되는 글을 '단속'해서 '노출을 제한하겠다'고 말했습니다. 그러나 잘 생각해 볼 부분이 있습니다. 실제로 네이버를 사용하는 사용자 입장에서 그 글을 누가 썼느냐?? 가 중요할까요?? 아니면 그 글의 내용이나 정보의 충실성이 더 중요할까요??
그건 두말할 필요도 없이 '내용'이 중요합니다. 근데 왜 AI로 자동화해서 쓴 글을 그 패턴을 분석해서 '카피킬러' 같은 등등의 프로그램을 이용해서 '단속'을 하고 또 '노출'을 제한 하겠다고 공공연히 이야기할까요??
오늘도 수많은 사람들이 네이버 블로그에 글을 씁니다. 그러나 실제로 어떤 주제를 정해 놓고 그것에 연관된 정보성 글을 쓴다고 할 때, AI 보다 더 잘 쓸 수 있는 사람이 얼마나 될까요??
'경험'이 중요하다고 말하지만, AI에게 '내 경험'을 간략히 알려주고, 그 경험을 포함시켜서 글을 써 달라고 하면 '글솜씨' 자체도 AI 보다 더 뛰어난 사람을 찾으려면 손에 꼽을 지경입니다. 근데 왜 AI로 글을 자동화 해서 쓰면 안 되는 것일까요??
AI는 이제 우리 인간이 어찌해 보지 못할 정도로 발전하고 있습니다. 알파고도 1번젼에서는 프로기사들에게 자주 지기도 했지만, 2버젼에서는 '이세돌 프로'에게 딱 한번 졌을 뿐이고, 3버전 이후로는 아무도 이길 수 없었고, 단 한 번도 지지 않았습니다.
ChatGPT는 어떨까요?? 지금 4버젼에서 이 정도인데 10버전쯤 되면 인간 중에 그 AI 보다 글을 더 잘 쓸 수 있는 사람이 이 지구상에 단 한 명이라도 남아 있을까요?? 그런데 왜 실제 사용자들은 그렇게 훌륭한 글을 보면 안 될까요??
문제는 AI가 아니라 네이버 입니다.
'지신iN'이라는 네이버의 대표적인 서비스가 있습니다. 이게 왜 있을까요?? "컴퓨터를 이용해 실효성 있는 데이터의 효과적인 전달"이 그 존재의 목적인 네이버가 왜 '인간이 묻고 인간이 대답하는 서비스'가 필요할까요??
그것은 사용자가 네이버를 이용해 어떤 정보나 주제를 검색을 할 때, 네이버가 인간 만큼이나 똑똑하게 훌륭한 정보를 제공하지 못하기 때문입니다. 이게 왜 문제가 될까요?? 특정 질문과 특정 분야에 대해 한 특정한 인간이 대용량 데이터를 보편적으로 다루는 엄청나게 큰 컴퓨터 보다 덜 똑똑한 게 문제가 될까요??
문제가 안될 수도 있습니다. 그리고 일면 그게 더 맞거나 당연할 수도 있습니다. 그러나 한가지 중요한 문제가 있습니다. 그건 뭔가 하면 '구글'은 '지식iN'과 유사한 서비스가 없다는 것입니다. 그러면서도 거의 대부분 국가들의 검색시장을 휘어잡고 있습니다. 그럼 이건 왜 그런 걸까요??
그것은 바로 '구글'은 검색 결과로 나오는 여러 글들을 다 보고 어느 것이 더 질문에 적합한 답인지 찾아내는 능력이 있다는 것입니다. 반대로 말하면 '네이버'는 어느 글이 더 훌륭한지 잘 구분해 내지 못한다는 뜻입니다.
그렇기 때문에 구글은 누가 썻든 뭘로 썼든 상관이 없이 '글'만 훌륭하면 '상위 노출'을 시켜 주겠다는 매우 일반적인 알고리즘을 계속 유지합니다. 그러나 네이버는 자신들의 부족한 '기술력'을 아직도 계속 손보고 있기 때문에 그에 따라 '알고리즘'이 매번 바뀌고 그때마다 이런 대란들이 일어나는 것입니다.
페이지랭크 VS 씨랭크(다이아랭크)
구글이 가진 "검색 결과에 대한 노출 순위 선정 프로그램"을 '페이지랭크 PageRank'라고 합니다. 이는 처음 만든 사람의 이름이 구글의 창업자인 '래리 페이지'여서 그가 자신의 이름을 따서 지은 이름입니다. 논리적인 이론은 간단합니다.
- "지명도 있는 사이트'에 등재되는 글이 좋은 글이다." - 유명 학회가 발행하는 유명 학술지에 실리는 논문이 더 훌륭한 논문으로 인정 받는 것과 마찬가지로 이 글이 '어디 어디'에 등재된 적이 있는지를 찾아보아서 이 글을 등재한 온라인 사이트들이 아주 신뢰성이 있는 훌륭한 사이트들이면 (예를 들면 공공기관 등), 이 글에게 점수를 더 많이 주겠다는 이론입니다.
- "다른 글들에 '인용'이 더 많이 된 글이 더 좋을 글이다." - 유명 학술지에 실린 논문 중, 관련 다른 논문들에 인용이 더 자주 되는 논문일 수록 훌륭한 논문일 확률이 높다는 것과 같은 이론으로, 온라인 글도 더 자주 인용되는 글에 점수를 더 줍니다.
- "이탈률이 낮을수록 좋은 글이다."라고 판단합니다. - 여기서 말하는 이탈률은 첫째 어떤 사용자가 어떤 블로그나 홈페이지에 들어와서 딱 한 개의 글만 읽고, 추가로 그 홈피 내의 다른 글들을 하나도 더 읽지 않고 그냥 나가는 경우를 '이탈'이라고 봅니다. 둘째 어떤 사용자가 들어왔다가 20초 이내에 나가는 경우를 '더 나쁜 이탈'로 봅니다. 대부분의 블로그나 홈페이지들의 평균 이탈률은 거의 65~90%쯤 됩니다. 만약 누군가의 블로그가 이탈률 30~50%면 아주 높은 이탈률 점수를 받을 수 있습니다.
- "채류시간이 긴 페이지가 좋은 페이지이다" - 어떤 상용자가 어떤 글을 보았을 때 그 글에서 나가지 않고 머문 시간이 길 수록 좋은 글로 판단합니다. 만약 '평균체류시간'이 1분30초 이상이면 상당히 좋은 점수를 받을 수 있습니다. 그래서 SEO 최적화에서는 항상 글 길이를 4천 자 이상으로 이야기합니다. 그리고 구글 최상위 노출 글들의 평균 길이는 약 8천 자 정도 됩니다. 그리고 유튜브 같은 동영상을 on page running으로 삽입해 둘 것을 권하는 것입니다. (여기서 글자수는 영어기준이기는 한데, 바이트 수로 따지면 한글은 그 숫자의 절반이 되겠지만, 여기서는 읽는 시간에 따른 숫자를 말하는 것이기 때문에 한글로 쓴다고 해서 절반으로 줄어들지는 않습니다.)
구글도 위의 네가지 이론 이외에 다른 이론들을 여러 차례 바꿔가면서 알고리즘을 업데이트해 왔지만, 다 소소할 뿐 판을 뒤집어엎을 만한 큰 변화는 없었습니다. mata tag가 어쩌고, alt tag가 어쩌고, h1, h2 등등 목차를 구조화해서 넣어야 하고 등등등의 이론들이 다 많고 또 다 맞는 말이지만 실제 '점수'에 미치는 영향은 미미합니다. 그런 거 하나도 없어도 하나도 몰라도 '글'만 훌륭하면 '상단노출'이 구글은 가능합니다.
네이버 씨랭크, 다이아랭크 등은 따로 말하지는 않겠습니다. 난리들이 가끔 나지만 다 발전하고 있는 과정 중에 있는 일이라고 좋게 생각합니다. 아직은 좀 부족하더라도 얼마 멀지 않은 시기에 '지식iN' 서비스가 필요 없을 정도로 충분히 좋은 결과를 선별해 내는 기업이 될 것이라고 믿고 있습니다.