SEO實驗的可行性
昨天談到統計數字在SEO中的局限,其實這牽扯到另外一個問題,也就是SEO實驗的可行性和可信度。
無數的人都在試圖通過實驗來解讀搜索引擎算法。這有個專門的詞,逆向工程,reverse engineering,也就是在可控條件下,改變網頁某些參數,然后觀察搜索排名變化,試圖分析出搜索引擎排名算法。
這些逆向工程和SEO實驗,很多高手和大公司都在不停的做著,有的也很有成果。可是說到底,這種實驗數據是不能百分之百可靠的。
這就像解數學題:AxB=C。當我們知道結果C(也就是搜索引擎排名)和A或B中一個數據時,我們能計算出A或B中另外一個數。但是當我們對A和B中兩個數都不知道時,只能列出一堆可能性,卻不可能得到唯一的AB數值答案。
更何況搜索引擎算法考慮的不是兩個數值,而是一兩百個參數。而我們這些外人對這一兩百個參數能確切知道的沒幾個。所以想通過反向工程推論出這些參數是怎么設置的?在排名算法中占有的比重?理論上是不可能的。
舉個簡單例子,假設我們想實驗關鍵詞密度是3%好還是5%好。一個可以設想的實驗模型是,用兩個同時注冊的域名,放上相同長度的文章內容,其中一個目標關鍵詞密度3%,另一個密度5%,在同一個網頁上放上這兩個新域名的鏈接。等收錄后查詢目標關鍵詞,看哪個網頁排的靠前。這關鍵詞的選擇最好是很冷門生僻的詞,甚至是唯一的詞,在其他網頁上沒出現過。
可是這樣一個看似還算合理的模型,卻忽略了很多可能影響試驗結果的因素。比如,同一個網頁上放兩個鏈接,必然有前有后,這兩個鏈接的權重會不會不同?新域名收錄時間會不會造成不同?而收錄時間又會不會造成域名權重不同及排名不同?
一旦網頁上出現這兩個域名的鏈接,怎么保證沒有其他人,其他任何地方出現這兩個域名的鏈接?因為一旦出現,實驗者就不能保證這兩個域名的鏈接數目和權重完全一樣。
另外,這兩個新域名網頁內容要不要是一樣的內容?還是不同的內容?如果是一樣,或者是大部分一樣的內容,是不是會造成復制內容網頁?而對復制內容,搜索引擎將選擇其一為原創,另外一個為復制。在其他條件完全相同時,這個選擇是不是是隨機的?如果內容放不一樣,由語義分析帶來的微妙差別怎樣計算?
這種種因素其實都很難控制,會對實驗結果造成什么影響很難講。嚴格來說,要在完全受控條件下進行SEO實驗,是我們這些做網站的人辦不到的。SEO實驗結果有時有很高的參考意義,有時也很誤導。
來源:seo每天一貼 Zac 昝輝