close

有一段時間以來,一直有很多人在思索:網站遵循Web標準來開發,對SEO有益嗎?不幸的是,這個問題的答案並非如此明確。為了得到答案,我們需要瞭解一下搜尋引擎如何"思考" 。


評估網頁排名時,搜尋引擎會查看一組品質信號,它們可能會提供線索:網頁關於什麼內容的,以及內容的價值。我們可以識別的某個這樣的品質信號,就是有多少個信譽良好的站內連結來源。如果有許多好的站內連結,那麼它可能有高品質的內容,因此當顯示相關搜索結果時,就應將它排名靠前。就是這個品質信號使Google成為搜尋引擎界的老大,而其他搜索演算法根據的是不太可靠的品質信號。顯然,在數十億美元的搜尋行業中,選擇正確的品質信號是最重要的。


因此,如果我們知道連結是品質信號的話,就意味著我們應該可以知道Web標準和SEO間的關係。但是要獲得答案,還有一個問題。因為搜尋引擎公司靠獨有的演算法生存,因此都非常注重保護排名方式的隱私。他們不願把商業機密透露給競爭對手或那些嘗試破壞系統的人。


研究結果證實了一些普遍的假設,但令人驚訝地,也推翻了其他的假設。他發現了一些結果,如下:


1.用語義標記,如<h1>標記關鍵字的確提升了網頁排名,並優於其他方法(如<b>)標記同樣內容的效果。


2.佈局中使用複雜的巢狀表格,事實上,的確在一定程度上損害了搜尋排名-大概是因為代碼內容比上升,使得頁面看起來價值減小。


3.無效代碼,會大大影響搜尋排名,在有些情況下,甚至會阻止頁面出現在清單中!


4.語義上正確的標記的確有助於改善搜索排名,但有時候其他技術更加有效,如在文中多次自然的出現關鍵字(用其他詞包圍在周圍)、用關鍵字命名檔、將關鍵字放在內部連接的標籤上,還有將關鍵字放在標題標籤上。


5.也有某些情況下,不遵循Web標準的頁面排名要高於遵循標準的。


從Davidson的研究中我們瞭解到,Web標準促進了正確的做法,使搜尋引擎能以一種有意義的方式來成功解讀和排名、使頁面更可能獲得更高的排名並更易被找到。然而頁面驗證的事實,卻不一定是主要搜尋引擎的重要品質信號。為了進一步複雜化問題,搜尋引擎的演算法經常變化來適應新的SEO方法,包括白帽(誠實)和黑帽(不誠實)技術。按照Mike Davidson的方法來測試自己的網站,也許是跟上主要搜尋引擎演算法變化的最好方法。


最後一點,應小心注意。編碼很差,但是內容引人注目、關鍵字豐富,並且有很多信譽良好的網站連結,會使網頁排名高於標準相容的網頁。單憑代碼是無法贏得SEO戰爭的,但配合正確的內容時,它會成為提高排名的那個因素。


Web標準對於搜索排名的價值,這個問題最後的答案是Web標準不能百分百保證你排名靠前,但它們是SEO成功很重要的因素。因此,應盡可能遵循Web標準。


 

arrow
arrow
    全站熱搜

    seohouse 發表在 痞客邦 留言(0) 人氣()