#1 2010-01-04 02:14:37
建議可以擋掉 robot 來讀取 digiland.tw
好處
1. 還是省頻寬
2. user 用 google 查詢時, 不會看到重複的東西在兩個網站, 尤其沒來過的容易 confuse
壞處
1. 想不出來... 不過我一直無法理解, 我們公司把 digiland.tw 擋掉, 但反而沒擋 neture.hopto.org
可以用 robot.txt, 不過只能檔君子, 很多 search engine 不鳥他. 不然就直接用 .htaccess 擋. 可參考 http://blog.ijliao.info/archives/2006/05/30/2318/
Google 可以用他的 webmaster (http://www.google.com.tw/webmasters/) 把舊網址拿掉, 但要搭配 robot.txt, 不然半年後就又會回來了.
離線
#2 2010-01-04 02:24:55
Re: 建議可以擋掉 robot 來讀取 digiland.tw
還有就是 PunBB 我沒用過, 但是他似乎也有重複 url 的問題
舉例來說, [DD-WRT] ASUS RT-N16 專用版 這篇文章的 url 應該如下
https://digiland.tw/viewtopic.php?id=942
然後各個分頁如下
https://digiland.tw/viewtopic.php?id=942&p=1
https://digiland.tw/viewtopic.php?id=942&p=2
https://digiland.tw/viewtopic.php?id=942&p=3
...
https://digiland.tw/viewtopic.php?id=942&p=9
但我發現也有長這樣的
https://digiland.tw/viewtopic.php?pid=4660
https://digiland.tw/viewtopic.php?pid=4687
https://digiland.tw/viewtopic.php?pid=4679
感覺上 id 是一整篇(含多頁), 然後 pid 只是其中一頁, 不知道對不對.
如果是的話, 我建議擋掉其中一種.
好處是, 如果 user 在 google 輸入 "site:digiland.tw [DD-WRT] ASUS RT-N16 專用版", 就不會跑出一堆重複的內容. 當然, 這也可以省頻寬.
假設兩個 domain 的內容都完全被收錄, 然後每篇也都有 id 和 pid 兩種 url, 那麼都擋掉的話, 至少就省掉 3/4 頻寬了.
離線
#3 2010-01-04 13:59:43
Re: 建議可以擋掉 robot 來讀取 digiland.tw
感謝您寶貴的建議,其實我只想在google搜尋 "數位天堂" 時,出現的結果是 https://digiland.tw 是第一順位,而不是現在的 https://digiland.tw/ 出現在第一順位。
另外,還是有一些網友(大陸地區居多)反映無法瀏覽 https://digiland.tw/ 卻可以瀏覽 https://digiland.tw/ ,所以短時間還不想用 robots.txt 的做法。
技術問題請於論壇上集眾人之力公開討論,感恩
離線
#4 2010-01-04 20:09:33
Re: 建議可以擋掉 robot 來讀取 digiland.tw
如果是希望 google 只出現 https://digiland.tw, 然後看不到 https://digiland.tw/, 但還是可以使用, 那 webmaster 是可以作到.
如果是兩個都要出現, 然後順序要 https://digiland.tw 在前面, 就滿難的了... 查了一下 canonical url 好像也不太像.
我唯一想得到的方法就是把站上的資料庫拿來掃, 把所有舊的網址都改掉, 看看能不能改一下排名了.
離線
相關討論主題
主題 | 回覆 | 點閱 | 最後發表 |
---|---|---|---|
小米路由器 R1D digiland 132 (20151031) 有没有英文版? 作者 sohzaikid123
|
2 | 8605 | 2015-11-08 15:42:29 作者 sohzaikid123 |
美劇 Mr. Robot 作者 oldhan
|
0 | 4141 | 2015-07-24 20:56:00 作者 oldhan |
[公告]本站獨立網址 http://digiland.tw/ 作者 Aven
|
6 | 25524 | 2008-11-28 21:16:41 作者 Aven |