Tôi hiện đang làm việc trên một ứng dụng được xây dựng với Express (Node.js) và tôi muốn biết cách thông minh nhất để xử lý robots.txt khác nhau cho các môi trường khác nhau (phát triển, sản xuất) là gì.Cách thông minh nhất để xử lý robots.txt trong Express là gì?
Đây là những gì tôi có ngay bây giờ nhưng tôi không thuyết phục bởi giải pháp, tôi nghĩ rằng đó là dơ bẩn:
app.get '/robots.txt', (req, res) ->
res.set 'Content-Type', 'text/plain'
if app.settings.env == 'production'
res.send 'User-agent: *\nDisallow: /signin\nDisallow: /signup\nDisallow: /signout\nSitemap: /sitemap.xml'
else
res.send 'User-agent: *\nDisallow: /'
(NB: nó là CoffeeScript)
Nên có một tốt hơn đường. Bạn sẽ làm điều này như thế nào?
Cảm ơn bạn.
Chắc chắn nó làm cho tinh thần để làm 'app.use ('/ robots.txt', chức năng (req, res, tiếp theo) {...});' và mất 'req.url' kiểm tra. – c24w
@ c24w với tốc độ 4 có. 'app.get' cũng sẽ hoạt động. Tôi sẽ cập nhật. Cảm ơn – SystemParadox
Ah, tôi nghĩ rằng nó có thể là một tính năng API mới (tôi nên đã kiểm tra). 'app.get' thậm chí còn tốt hơn!:) – c24w