Diễn Đàn SEO - vnseo.edu.vn - Google công bố 1 bài kết quả nghiên cứu về đánh giá hiệu quả của Sitemaps trong qui trình tìm kiếm "Research study of sitemap", trong đó họ đã hé lộ phần nào qui trình tìm kiếm như sau: Qui trình index của Google - Discovery : Đây là quá trình khai phá các trang web mới. Quá trình này được thực hiện thường xuyên. Tuy nhiên các con bọ không phải chạy theo các liên kết 1 cách lung tung hết từ trang web này nhảy qua trang web khác mà đi theo 1 thứ tự ưu tiên: Google trước hết sẽ ‘mò’ ra 1 bộ các trang web ‘nổi tiếng’ (cái này chắc nghĩa là PR cao), xong sẽ róc toàn bộ các liên kết ngoài từ các trang web nổi tiếng đó, cho vào 1 sọt riêng cấp1. Các trang web cấp 1 này lại được róc tiếp toàn bộ liên kết ngoài cho sọt cấp 2. Đám url cấp trên hết sẽ được ưu tiên quăng sang quá trình tiếp theo là Spam Filter. - Sitemaps: song song quá trình Discovery, Google cũng phát hiện web mới bằng cách xem xét các url được submit lên từ các qui trình submit Sitemaps, ví dụ như bằng robot.txt files, HTTP request hay Google Webmaster Tool. - Spam Filter : kết quả từ 2 quá trình trên đều được đưa vào bộ lọc spam, có nhiệm vụ phát hiện và loại bỏ các liên kết spam từ các bộ liên kết nhận được rồi mới chuyển sang quá trình kế tiếp. - Web Crawler : các con bọ của google sẽ nhận được bộ url sạch từ spam filter chuyển qua, tạo ra các HTTP request theo yêu cầu ping Google của các website rồi bắt đầu thực hiện quá trình thu (retrieve) dữ liệu trên các trang đó. Lúc này các links lại tiếp tục được róc ra cho vào các sọt thứ cấp chuyển trở lại bước Discovery. Tại đây con bọ web cũng bảo đảm sẽ quay trở lại update trang web đã crawl theo yêu cầu về mặt tần suất. - Indexer/Server : Tại đây, bộ phận index sẽ chịu trách nhiệm phân các trang được đưa sang thành từng nhóm khác nhau dựa trên các thông số chất lượng và xây dựng nên dữ liệu index cho các trang này. - Server: Các dữ liệu index sẽ được lưu trữ tại đây để phục vụ cho yêu cầu của người dùng khi họ truy cập và tìm kiếm 1 từ khóa. Ta rút ra được gì từ bài viết này của Google nhỉ? Theo tôi thì rất rất nhiều! Đây chỉ mới là một đoạn ngắn trong báo
Dịch hơi khó hiểu nhưng hình như là giờ nó sẽ phân chia cấp độ các trang web để ưu tiên thu thập dữ liệu.
Có thể thuật toán mới ra đời nên dạo gần đây thứ hạng từ khóa nhảy lung tung như ngựa, không biết có diễn đàn nào ra đảo trong đợt tới nữa không
Có thêm kiến thức, cần nghiên cứu thêm. Tuy nhiên cái pr hiện không xét về seo nữa, seo trong tương lai có lẽ link cũng ko được xét nhiều. Như vậy xét cho cùng có thể là nội dung chiếm 80% còn lại là lượng index và view chiếm 10% còn 10% chính là link. Nên ae có thể nghiên cứu xem thế nào
không biết mỗi năm GG cập nhật bao nhiêu thuật toán nhỉ thấy càng ngày GG làm có vẻ càng mạnh hơn trước
mọi người cho mình hỏi, mình có từ khóa link danh mục đang top mãi kok thấy lên link con, còn những web khác lên top 1 cái là lên link con nhưng ở link trang chủ