在之前的文章中介紹了 SEO 輔助外掛的使用與介紹。
而有相關經驗或是查了其他文章的人,應該都會想要問為什麼沒有啟用 robots.txt 的功能,就讓我繼續說明下去吧!
首先 robots.txt 這一個檔案是寫給搜尋引擎的機器人看的東西,告訴搜尋引擎你有什麼東西是不希望他看的,所以想要知道詳細的說明就去看 Google 的說明吧,畢竟他是搜尋引擎的霸主。
這邊就不說明太細節的東西啦!
反正這檔案基本上,寫好之後就不會需要再更新。
所以我不打算使用外掛的方式來動態產生這一個檔案,而是直接上傳該檔案到伺服器上面。這也就是我沒有啟用該功能的原因了。
要手動上傳的時候,檔案名稱就是 robots.txt
,建議就是這樣全部小寫的寫法。
而這一個檔案的實際連結應該就是 https://richer.tw/robots.txt ,記住他不可以放在某一個目錄底下,一定要是在這樣緊跟在網域名稱後面的頂級目錄底下才可以被正確的讀取。
最後檔案的內容就像下面那樣簡單三行就好。
這是一個針對 WordPress 的網站給的建議,原則就是訪客在前台看到什麼頁面什麼內容,搜尋引擎就可以看到相同的東西。
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
最後再提醒一件事情,這份檔案完全仰賴搜尋引擎的尊重,並不是你寫了搜尋引擎就一定不會看了。
這個很有參考價值
我正在處理這個設定,連sitemap一起寫進去
我要上傳robots.txt檔到wordpress網頁根目錄上,就一定要把wordpress網頁升級至商用版嗎?