Diễn Đàn SEO - vnseo.edu.vn - Nội dung trùng lặp là gì? Nội dung trùng lặp (tên tiếng anh là Duplicate Content) là nội dung xuất hiện trên Internet tại hơn một địa chỉ (URL) hay nói theo một cách khác Duplicata Content là nội dung xuất hiện trên nhiều website khác nhau. Trùng lặp nội dung không tốt cho người dùng cũng như các SE của Google Đây là một vấn đề, bởi vì khi có nhiều hơn 1 đoạn nội dung giống hệt nhau trên nhiều website sẽ gây khó khăn cho công cụ tìm kiếm để quyết định phiên bản nào phù hợp hơn với một truy vấn tìm kiếm nhất định. Để đưa ra kết quả tìm kiếm tốt nhất, công cụ tìm kiếm sẽ hạn chế hiển thị các nội dung bị sao chép, vì thế bắt buộc phải lựa chọn phiên bản nhiều khả năng là bản gốc nhất (hoặc tốt nhất). Ba vấn đề lớn nhất mà Duplicate Content gây ra: Search engine (SE) không thể phân biệt phiên bản nào được copy, phiên bản nào là gốc. SE không biết nên hướng các link metrics (mozrank, moztrust, bản quyền, anchor text, link juice …) đến một trang web, hay giữ tách rời giữa nhiều phiên bản. SE không biết nên chọn phiên bản nào để xếp hạng cho kết quả tìm kiếm. Khi xuất hiện nội dung trùng lặp, người quản trị web đối mặt với vấn đề mất thứ hạng, giảm traffic, và SE sẽ đưa ra kết quả tìm kiếm kém chính xác hơn. Hình: Không thể xếp hạng tất cả được. Bắt buộc phải tìm ra bản gốc! Nguyên nhân gây trùng lặp nội dung: 1. Các tham số của URL Các thông số URL như theo dõi nhấp chuột và một số mã phân tích có thể gây ra các vấn đề nội dung trùng lặp. Hình: hệ thống category URL tạo nên các phiên bản giống nhau của cùng 1 trang web 2. Phiên bản in ấn Các phiên bản để in ấn của một nội dung có thể gây ra duplicate content khi nhiều phiên bản của trang được xếp hạng. Hình: URL của phiên bản để in gây ra trùng lặp nội dung 3. Senssion IDs Các senssion IDs là nguyên nhân chủ yếu gây ra nội dung trùng lặp. Việc này xảy ra khi mỗi người dùng vào website và để lại 1 senssion ID và được lưu lại ở URL. Hình: Senssion ID tạo nên các phiên bản giống nhau của cùng 1 trang web 4. Copy nội dung: Trùng lặp hoàn toàn: Là trường hợp rõ ràng nhất khi nội dung bị sao chép 100% chỉ khác nhau duy nhất là Url. Trùng lặp một phần: Là trường hợp gần giống bản gốc nhất chỉ khác nhau về bố cục, hình ảnh và chút ít về từ ngữ. Cross Domain: Là trường hợp giống 1 phần nội dung, thường là được lấy từ bản gốc rồi đăng làm nhiều phần trên những website khác nhau. 5.Phân trang comment. Một số website khi có lượng comment lớn đã ngắt thành những trang khác nhau (/cmt-page-1/, /cmt-page-2/) khi cùng trỏ về một nội dung. 6. Non www và www Có nhiều SEOer khi không để ý điều này. Vô hình chung đã đẩy website vào Duplicate Content Website trùng lặp nội dung sẽ bị phạt bởi SE, SE sẽ loại bỏ (tùy theo mức độ) kết quả tìm kiếm trên trang kết quả đối với các trang có quá nhiều nội dung trùng lặp nội dung. Điều này sẽ khiến website rớt hạng thậm chí bị loại bỏ hoàn toàn khỏi bảng xếp hạng. Website trùng lặp nội dung sẽ bị phạt như thế nào? SE sẽ loại bỏ (tùy theo mức độ) kết quả tìm kiếm trên trang kết quả đối với các trang có quá nhiều nội dung trùng lặp nội dung. Điều này sẽ khiến website rớt hạng thậm chí bị loại bỏ hoàn toàn khỏi bảng xếp hạng. Mới đây (16/12/2013) Matt Cutts người đứng đầu bộ phận hỗ trợ SEO và chống SPAM của Google đã đăng 1 video trên Youtube có nhắc đến việc trùng lặp nội dung hiện nay. Matt có nói rằng Google không có quyền xử phạt các trang web nó nhiều nội dung trùng lặp, nhưng chắc chắn một điều rằng những nội dung này sẽ không có thứ hạng cao trên bảng hiện thị kết quả của Google. Cách khắc phục khi bị trùng lặp nội dung Bất cứ khi nào nội dung của một trang web có thể được tìm thấy tại nhiều URL, nó nên được khai báo với công cụ tìm kiếm. Điều này có thể được thực hiện bằng cách sử dụng một chuyển hướng 301 đến URL chính xác, sử dụng rel = canonical hoặc trong một số trường hợp có thể sử dụng công cụ xử lý thông số trong Trung tâm Quản trị Trang web của Google. Chuyển hướng 301 Trong nhiều trường hợp, cách tốt nhất để chống lại nội dung trùng lặp là thiết lập một trang chuyển hướng 301 từ trang "bản sao" các trang nội dung ban đầu. Khi các trang với nhiều khả năng được xếp hạng tốt được kết hợp thành một trang duy nhất, chúng không còn cạnh tranh với nhau, mà tạo ra một sự liên quan mạnh mẽ hơn và tín hiệu phổ biến tổng thể. Điều này sẽ tác động tích cực đến khả năng được xếp hạng tốt trong công cụ tìm kiếm. Hình: giờ thì xếp hạng trang này được rồi! Rel="canonical" Một tùy chọn khác để đối phó với nội dung trùng lặp là sử dụng rel = canonical tag. Các rel = canonical đi cùng một link juice (ranking power) cũng giống như là một chuyển hướng 301, và để thực hiện thì thường mất it thời gian hơn. Mẫu code Rel=Canonical Thẻ này là một phần của HTML head của một trang web. Thẻ meta này không phải là mới, nhưng như nofollow, chỉ cần sử dụng một tham số rel mới. Ví dụ: Thẻ này báo cho Bing và Google rằng trang đã đưa nhất định phải được xem là bản sao của www.example.com/canonical-version-of-page/ URL và tất cả các liên kết, các số liệu nội dung mà SE áp dụng phải được công nhận cho URL kia. Hình: Đúng rồi! Đây chỉ là bản sao của SEOMoz blog URL. Đây cũng giống như 301, nhưng không phải sửa chữa gì nhiềuCác ví dụ sau đây cho thấy lỗi viết hoa gây ra trùng lặp nội dung: http://www.simplyhired.com/a/jobs/list/q-software+developer http://www.simplyhired.com/a/jobs/list/q-Software+developer http://www.simplyhired.com/a/jobs/list/q-software+Developer Sự khác biệt duy nhất giữa các URL này chữ viết hoa của các từ "software" và "developer". Công cụ tìm kiếm sẽ coi tất cả các URL trên là các trang khác nhau và xét chúng là dublicate content. Bằng cách thực hiện rel = "canolical" đối với trường hợp thứ 2 và thứ 3, chúng sẽ chỉ trỏ lại vào URL 1, các công cụ tìm kiếm sẽ biết để coi tất cả các URL này là URL # 1. Meta Robots Thẻ meta robot với các giá trị "no index, no follow" có thể được thực hiện trên các trang web mà không cần phải được bao gồm trong chỉ mục của công cụ tìm kiếm. Điều này cho phép các bot tìm kiếm craw links trên 1 trang web nhất định, nhưng vẫn không bao gồm chúng trong mục xếp hạng. Điều này đặc biệt hữu ích với vấn đề ngắt trang. Mẫu code Meta Robots Parameter Handling trong Google Webmaster Tools Google Webmaster Tools cho phép bạn thiết lập tên miền ưa thích của trang web của bạn và xử lý các thông số URL khác nhau khác nhau. Hạn chế chính của những phương pháp này là họ chỉ làm việc cho Google. Bất kỳ sự thay đổi của bạn ở đây sẽ không ảnh hưởng đến Bing hoặc bất kỳ công cụ tìm kiếm các khác. Đặt tên miền ưa thích Điều này nên được thiết lập cho tất cả các trang web. Đó là một cách đơn giản để báo cho Google xem một trang web nhất định nên được hiển thị có hoặc không có www trong các trang kết quả tìm kiếm. Các phương pháp khác nhằm tránh cũng như loại bỏ Duplicate Content Hãy tự viết nội dung cho website, không sao chép nội dung của website khác dù chỉ là 1 phần. Điều đó loại bỏ gần như tối đa việc trùng lặp nội dung, cũng là điều tuyệt vời khi website có lượng bài viết độc đáo. Luôn kiểm tra xem có bị trùng lặp nội dung ngay trên site của mình không. Luôn kiểm tra nội dung của website có bị sao chép tới website khác không. Khi sử dụng nội dung của trang khác, cần đảm bảo rằng phải có link back đến trang đó. Xem phần “Đối phó với nội dung trùng lặp” để biết thêm thông tin. Giảm thiểu nội dung tương tự. Thay vì 1 trang web về áo mưa cho bé trai và 1 trang web về áo mưa cho bé gái, nội dung giống nhau đến 95%, hãy thêm nội dung để chúng trở nên khác biệt. Hoặc có thể ghép thành 1 trang chung về áo mưa cho trẻ em. Trích Nguồn: Mã: http://vietmoz.net/kien-thuc-co-ban/Noi-dung-trung-lap-Duplicate-Content-17/