2012-02-05 33 views

Trả lời

80

Dưới đây là một giải pháp nếu bạn muốn không cho phép các chuỗi truy vấn:

Disallow: /*?* 

hoặc nếu bạn muốn được chính xác hơn trên chuỗi truy vấn của bạn:

Disallow: /*?dir=*&order=*&p=* 

Bạn cũng có thể thêm vào các robot. txt mà url để cho phép

Allow: /new-printer$ 

$ sẽ đảm bảo chỉ có /new-printer sẽ được cho phép. Thông tin

thêm:

http://code.google.com/web/controlcrawlindex/docs/robots_txt.html

http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/

+0

điều này sẽ không cho phép máy in mới Tôi chỉ muốn vô tình phần truy vấn –

+0

vì vậy bạn muốn cho phép '/ new-printer' nhưng không phải'/new-printers? Dir = * & order = * & p = *? '? –

+0

yes ................ –

3

Đăng ký trang web của bạn với Google Webmaster Tools. Ở đó bạn có thể cho Google biết cách xử lý các thông số của bạn.

Site Configuration -> URL Thông số

Bạn nên có những trang có chứa những thông số cho thấy rằng họ nên được loại trừ khỏi chỉ mục thông qua thẻ meta robot. ví dụ.

+1

Mặc dù câu hỏi ban đầu đề cập đến Google cụ thể, điều quan trọng cần lưu ý là Google WebMaster Tools sẽ chỉ chặn Google. Việc thêm các quy tắc Không cho phép trong tệp robots.txt cũng sẽ giải quyết các công cụ tìm kiếm khác. –

+1

Đúng. Cũng cần phải làm rõ rằng robots.txt không ngăn các trang lập chỉ mục của Google nhưng dừng việc đọc các trang đó. Giải pháp tốt nhất là sử dụng thẻ meta rô bốt trên chính trang đó. Điều này được hỗ trợ bởi tất cả các hệ thống. – Tiggerito

14

Bạn có thể chặn những thông số chuỗi truy vấn cụ thể với những dòng sau

Disallow: /*?*dir= 
Disallow: /*?*order= 
Disallow: /*?*p= 

Vì vậy, nếu bất kỳ URL chứa dir=, order=, hoặc p=bất cứ nơi nào trong chuỗi truy vấn, nó sẽ bị chặn .

+0

Điều này có nghĩa là toàn bộ trang sẽ không được thu thập miễn là điều kiện trên được thỏa mãn. –

Các vấn đề liên quan