Diễn Đàn SEO - vnseo.edu.vn - Vấn đề Mỗi lần có một bài viết mới, chúng ta sẽ thêm nó vào sitemap theo thứ tự mới nhất đứng đầu và giảm dần, sau đó PING tới công cụ tìm kiếm để nó chạy qua đọc file sitemap và index bài viết mới nhất. Vậy thì, vấn đề là nếu sitemap có tới tận 50 k đường link trong nó thật, thì chắc chắn Google sẽ mất rất nhiều công để download cái sitemap đó về và phân tích nó, như vậy thời gian trễ sẽ kéo dài hơn, chưa kể nếu bạn submit bài viết liên tục thì có nguy cơ Google phải download liên tục cái file sitemap về liên tục. Trên thực tế, Google check lại file sitemap khoảng 1 lần / ngày hoặc 1 lần / tuần để đảm bảo rằng không có đường link nào được bỏ xót trong đó, như vậy tại sao chúng ta không tách danh sách link cũ ra một sitemap riêng ? Để tăng tốc cho Google bot khi đi vào sitemap bài viết mới ? Giải pháp Tôi có nghiên cứu mấy cái plugin sitemap hiện đang được nhiều blogger download về, thì thấy một điều là sitemap của chúng tạo ra nay không còn sử dụng file tĩnh nữa, mà sử dụng file “ảo”. Thứ hai nữa là chúng tách sitemap ra làm nhiều sitemap con hơn, theo kiểu thư mục ngày tháng ý, để chắc chắn rằng Google không bỏ xót bài viết nào trong đó. Thứ ba là chúng tách nhỏ ra như vậy sẽ giúp Google kéo sitemap về một cách dễ dàng, giúp tăng tốc độ Index. Cơ chế của chúng kiểu như thế này: Cứ mỗi 100 link lại tách ra làm một sitemap, sitemap mới nhất sẽ được PING tới các công cụ tìm kiếm sau khi publish bài viết mới, sitemap được tách nhỏ đảm bảo cho chúng được download về phân tích một cách nhanh chóng hơn và “tiết kiệm băng thông” hơn so với để chúng vào làm một. Các công cụ tìm kiếm sẽ revisit các sitemap nên việc tách ra cũng chả ảnh hưởng gì tới việc phân tích dữ liệu của máy tìm kiếm cả. Vậy bạn có nghĩ mình sẽ tách sitemap ra làm hai ? Hay nhiều hơn để google index nhanh
hiện vẫn có chia nhỏ sitemap, giả sử diễn đàn xenforo thì chia nhỏ ra làm post, threads, forum.. ngoài ra còn có images, video, news.. đối với các blog.