- Hoạt động cuối:
- 27 Tháng mười một 2013
- Tham gia ngày:
- 5 Tháng mười một 2013
- Bài viết:
- 1
- Được Like:
- 0
- Điểm thành tích:
- 1
- Giới tính:
- Nữ
- Sinh nhật:
- 12 Tháng năm 1990 (Age: 34)
trangphan79
Thành viên, Nữ, 34
- trangphan79 được nhìn thấy lần cuối:
- 27 Tháng mười một 2013
- Đang tải...
- Đang tải...
-
Giới thiệu
- Giới tính:
- Nữ
- Sinh nhật:
- 12 Tháng năm 1990 (Age: 34)
Trong thực tế có rất nhiều trang web đang mắc lỗi trùng lặp nội dung. Sự cạnh tranh là rất lớn và kiến thức thì có hạn đôi khi khiến chúng ta phải đi sao chép lại các nội dung để thu hút được người truy cập. Tuy nhiên sau khi google tung ra Panda đặc biệt trong đợt cập nhật gần đây đã khiến cho nhiều website trùng lặp nội dung bị phạt. Điều này có thể gây ảnh hưởng đến kết quả seo.
Với những trang web bị phạt sẽ không tránh được việc đặt câu hỏi vì sao và làm thế nào để giải quyết vấn đề duplicate hiệu quả nhất ?
A. Nội dung trùng lặp là gì ?
Nội dung trùng lặp là những nội dung xuất hiện trên hai hay nhiều địa chỉ trang web hoặc trên các lĩnh vực giống nhau. Ngoài ra nội dung mà tương tự về ý cũng sẽ được xếp vào danh sách nội dung trùng lặp.
Chia làm 3 loại :
Bản sao Gốc : đây là dạng website có nội dung trùng lặp hoàn toàn, giống hệt với một trang web khác. Sự khác biệt giữa hai trang chỉ là đường URL. Ví dụ trang web thứ nhất có nội dung về tăng like fanpage hiệu quả, trang web thứ hai copy toàn bộ nội dung tăng like fanpage hiệu quả sang.
Gần giống với bản gốc : Đây là một dạng biến tấu về nội dung . Nó gần giống bản gốc chỉ có sự khác biệt rất nhỏ về một số ngôn ngữ , một đoạn văn, hình ảnh hay kể cả thay đổi xáo trộn các cụm văn.
Cross Domain : Dạng giống một phần của nội dung. Cách này thường xảy ra khi một nội dung được chia sẻ trên 2 trang web khác nhau với mỗi trang web là một phần nội dung gốc. Nên nó có thể là dạng bản gốc hoặc dạng gần giống với bản gốc.
B. Tại sao trùng lặp nội dung lại bị google panda phạt ?
Nội dung trùng lặp rõ nguồn gốc tác giả không mang tính lừa đảo không bị xếp vào nội dung xấu. Sau đây là một số nội dung trùng lặp không xấu :
Tại diễn đàn, blog website : khi tạo ra 2 đoạn nội dung gần giống nhau, một nội dung là nguyên bản, một nội dung được rút gọn để hướng đến cho người sử dụng trên các phương tiện khác như mobile…
Lưu trữ các thông tin hiển thị và liên kết thông qua nhiều URL , thông tin tốt cho người dùng.
Chỉ in duy nhất một phiên bản của nội dung trên trang đó…
Tuy nhiên đó chỉ là một số trang cơ bản, nhiều webmaster trong nỗ lực để nâng cao thứ hạng website , tăng lượng truy cập đã cố tình sử dụng các nội dung trùng lặp. Cách làm này không tốt và không thể tạo sự thân thiện với người dùng khi khách hàng thường xuyên gặp những bài trùng lặp như vậy. Ví dụ như trang gốc viết về tăng like facebook, các webmaster cố tình sửa 1 chút nội dung tăng like facebook đi 1 chút rồi viết lại lên trang của mình.
Trong phiên bản gần đây của google panda , việc đánh giá nội dung trùng lặp này khá là quan trọng. Nếu trang web của bạn bị google panda đánh giá là không tốt , các thuật toán của nó sẽ tác động đến website của bạn, làm cho trang trùng lặp mất điểm thậm chí bị phạt mất nội dung, thứ hạng trên SERP.
C. Phương pháp giúp bạn có thể sửa lỗi duplicate content một cách hiệu quả
Nếu bạn muốn khách hàng của mình luôn hài lòng với những thông tin mà họ có thể tìm được trên website hãy đảm bảo chỉnh sửa các lỗi duplicate content xấu.
- 404 (Not Found)
Nếu bạn cảm thấy nội dung dung trùng lặp thực sự không đem lại lợi ích cho người tìm kiếm hay nó không đem lại cho bạn những liên kết hay traffic cách đơn giản là cứ xóa nó đi và để lỗi 404.
- Redirect 301
Khi sử dụng chuyển hướng 301 đồng nghĩa với việc bạn thông báo cho cả người dùng và bọ tìm kiếm rằng trang web mà họ trang truy cập đã chuyển đến một địa chỉ khác. Bạn có thể chuyển hướng đến 1 trang mạng xã hội như Twitter, Squidoo, Cách Tăng Like Facebook , Goolge plus, YouTube,…. Và công cụ này sẽ chuyển hướng người dùng đến một url mới. Đây là một cách làm tốt nếu nội dung trùng lặp đó nằm trên URL gắn thẻ canonical.
- Robot.txt
Đây là phương pháp được dùng khi bạn muốn nội dung trùng lặp hiển thị với người dùng nhưng ngăn chặn không cho bọ tìm kiếm thu thập thông tin. Điều này được thực hiện khá đơn giản. Tuy nhiên nó chỉ hiệu quả với các trang chưa index , còn với các trang đã được index thì nó vô tác dụng.
- Meta Robots Tag
Cách này được áp dụng nếu bạn muốn điều hướng khả năng tìm kiếm thông tin của bots tại trang. Nó sẽ thông báo cho bots tìm kiếm không index trang này hoặc các liên kết trong đó. Ví dụ có 1 trang con tăng subscribe facebook trong website mà bạn không muốn index thì bạn có thể cấu hình trên file robot.txt này. Cái này được khá nhiều công ty SEO áp dụng và làm cho trang thân thiện hơn với search engine so với sử dụng Robot.txt
- Rel=canonical
“Rel-Ca nàynonical” hoặc là “Canonical Tag” là cách làm giúp webmaster có thể tạo ra canonical cho bất kỳ trang nào. Vì vậy, khi bots tìm kiếm thu thập thông tin trên một trang có gắn thẻ canonical nó sẽ hiểu và loại bỏ nội dung trùng lặp trên URL đó.
- Google URL Removal
Cách làm này theo tôi là phương pháp cuối cùng nếu phải thực hiện việc xóa bỏ các nội dung trùng lặp. Nó được sử dụng trong google webmaster tool. Để làm được bạn làm theo các bước sau : Vào google webmaster tool rồi Click vào “Site Configuration” => click tiếp “Crawler Access” . Sau bước này bạn sẽ thấy hiển thị ra 3 tab. Hãy click vào cái thứ 3 “Remove URL” . Bác nào hay sử dụng webmaster tool sẽ rất rõ.Tương tác