Chủ Nhật, 16 tháng 3, 2014

Tin vui cho các webmaster: “Mẫu báo cáo nội dung vi phạm” từ Google

Google vừa công bố một tin vui tới các webmaster: Giờ đây chúng ta có thể dễ dàng báo cáo các trang web sao chép nội dung (Scapper sites) thông qua Mẫu báo cáo sao chép nội dung (Scapper report) mà Google mới tạo.

Matt Cutts, đứng đầu đội chống spam của Google, vừa phát biểu trên Twitter:


“Mẫu báo cáo Scraper” cho phép các Webmasters báo cáo các trang sao chép nội dung của họ bằng cách cung cấp nguồn Url với Google. Tuy nhiên, Báo cáo Google Scraper không hứa hẹn bất kỳ sửa chữa hay đưa ra dấu hiệu nào cho thấy Google dự định sẽ làm gì với những thông tin từ báo cáo này. Thay vào đó, Google chỉ đơn giản là yêu cầu mọi người gửi URL của nội dung ban đầu của họ, URL của nội dung sao chép từ họ và url của trang kết quả tìm kiếm cho thấy trang copy nội dung đang được xếp hạng cao hơn.
Nội dung sao chép có thể bị bị gỡ bỏ hoặc không, nhưng ít nhất các thông tin này hy vọng sẽ được sử dụng để giúp đội cải thiện thuật toán Google để nội dung gốc xếp hạng cao hơn.

Hiện tại, cách duy nhất để yêu cầu loại bỏ nội dung scapper là khiếu nại lên hệ thống DMCA của Google, nhưng cách này có thể tốn nhiều thời gian. Có thể sắp tới nhóm nghiên cứu spam của Google loại bỏ những nội dung vi phạm bằng cách xem nó là spam, chứ không phải vì vấn đề bản quyền. Với mẫu báo cáo scapper, chúng ta có thể trông đợi Google sử dụng nó để cải thiện các thuật toán nhằm xác định nơi có nội dung gốc và nơi có Scraper, đồng thời nghiên cứu xem làm thế nào và tại sao trang Scraper lại được xếp hạng.

Một trường hợp có thể xảy ra là trang web có nội dung bị báo cáo vi phạm lại có bản quyền hợp lệ cho nội dung đó. Tuy nhiên trên thực tế thì trường hợp đó hiếm khi xảy ra, nhất là khi tình trạng sao chép nội dung và vi phạm bản quyền xảy ra quá nhiều. Việc cố gắng loại bỏ những nội dung scapper như vậy là một hành động rất có giá trị của Google.

Tóm lại, báo cáo Google Scraper có thể không loại bỏ được tất cả các nội dung vi phạm nhưng nó đang thể hiện nỗ lực của Google trong việc cải thiện chất lượng xếp hạng cho các truy vấn tìm kiếm.

Thứ Tư, 12 tháng 3, 2014

Những điều cần biết về xây dựng liên kết năm 2014

Nên xây dựng bao nhiêu liên kết cho website trong năm 2014? Câu trả lời là hãy tiếp tục tạo ra tất cả liên kết có giá trị.

Trong những năm qua chúng ta đã nhìn thấy rất nhiều thay đổi trong việc xây dựng liên kết. Trong khi một số liên kết không còn giá trị, và một số liên kết thậm chí có thể gây hại nếu chúng là những liên kết xấu, vẫn có những liên kết chất lượng giúp làm tăng giá trị website trong các xếp hạng của công cụ tìm kiếm.

Thứ Sáu, 7 tháng 3, 2014

Nội dung trùng lặp là gì?

Chúng ta đều biết nội dung trùng lặp là không tốt. Nhưng nội dung trùng lặp là gì? Và tại sao nó lại không tốt?
Để hiểu đầy đủ về vấn đề này, chúng ta cần phải xem xét điều này không phải từ ngữ cảnh của một người sở hữu trang web, mà đúng hơn là từ quan điểm của một công cụ tìm kiếm đang cố gắng cung cấp một trải nghiệm tốt nhất có thể cho các người dùng. Từ quan điểm chính này mà sau đó chúng ta có thể đưa ra các nguyên tắc để xem xét việc này có thể ảnh hưởng như thế nào đến một trang web và lưu lượng truy cập tự nhiên của nó .

Thứ Tư, 5 tháng 3, 2014

Thiết kế mới của Google cho trang kết quả tìm kiếm?

Cách đây vài tháng, Google đã thử nghiệm nhiều layout để trang kết quả tìm kiếm của mình trông dễ đọc hơn, bằng cách tăng font chữ và bỏ phần gạch dưới cho các kết quả liên kết.

Thứ Hai, 3 tháng 3, 2014

Những yếu tố Google Penguin 2.1 quan tâm

Thuật toán Penguin của Google, ngay từ khi ra mắt, đã khiến các nhà làm SEO say mê nghiên cứu và phân tích. Năm ngoái, tại trụ sở MathSight ở Anh, các nhà phân tích đã sử dụng kỹ thuật đảo ngược để xác định các yếu tố trên website mà Penguin 2.0 nhắm tới. Gần đây hơn, MathSight tập trung vào các con số để phân tích Penguin 2.1 và có những tiết lộ mới về thuật toán đặc biệt này.
Trước khi có bản cập nhật Penguin 2.1, Andreas Voniatis -  Giám đốc điều hành của MathSight, cho biết điều quan trọng là phải hiểu các nguyên nhân gốc rễ của vấn đề.
Ông nói: "Liên kết inbound/outbound đều có nguồn gốc từ các website, vì vậy, bằng cách phân tích SEO on-page, chúng tôi đang tìm kiếm các thuộc tính của các trang liên kết bên ngoài. Penguin 2.0 đã hoạt động trên những thuộc tính này."
Với Penguin 2.0, Math Sight nói rằng tất cả đều tập trung vào mức độ "đọc thấp" của nội dung trên website, đặc biệt đối với body text, anchor text, hyperlinks, và thông tin trong thẻ meta. Vậy còn thuật toán Penguin 2.1 thì sao?
Dữ liệu của MathSight đã cho thấy các website tăng hay sụt giảm lưu lượng truy cập do Penguin 2.1 có liên kết đến các trang web chứa:
Tỷ lệ các từ hiếm cao hơn (tốt) hoặc thấp hơn (xấu) trong toàn văn bản.
Số lượng từ trong mỗi câu cao hơn (tốt) hoặc thấp hơn (xấu) trong toàn văn bản.
Số lượng âm tiết trên mỗi từ cao hơn (tốt) hoặc thấp hơn (xấu) trong toàn văn bản.
Dữ liệu của MathSight có thể hỗ trợ cho nghiên cứu SEO về các liên kết đến trang web chất lượng thấp.
Voniatis nói "Penguin đọc  một trang web bằng cách làm sạch các liên kết trên nội dung. Các websites nên loại bỏ liên kết từ những trang không đáp ứng khả năng đọc của thuật toán Penguin. Văn bản càng đơn giản thì nội dung càng đáng tin"
"Khi so sánh Penguin 2.0 với 2.1, chúng tôi nhận thấy thuật toán mới đã được tinh chỉnh để các số liệu để khả năng đọc tốt hơn, khả năng đọc giờ đây được tính theo chỉ số Flesch-Kincaid. Có vẻ như Google đang cố gắng tìm ra những giới hạn của web spam bằng cách tinh chỉnh công thức tính toán mức độ dễ đọc của nội dung." – Voniatis bổ sung
Công thức được sử dụng để xác định khả năng đọc sử dụng chỉ số Flesh Kincaid, theo Voniatis , được tính như sau:
RE = 206.835 – (1.015 x ASL) – (84.6 x ASW)
RE = Khả năng đọc
ASL = Độ dài trung bình của câu (số từ chia cho số câu)
ASW = Số lượng âm tiết trung bình trên mỗi từ (số lượng âm tiết chia cho số lượng từ)

Kết quả càng thấp, văn bản càng khó đọc, nội dung càng có lợi cho các bản cập nhật Penguin. Các số liệu thống kê ANOVA (phân tích phương sai) cho thấy Flesch-Kinkaid chắc chắn đang gây ra sự thay đổi trong lưu lượng truy cập do Penguin.

Cột màu đỏ trong đồ thị trên cho thấy những yếu tố được cho là nguyên nhân gây ra bởi Penguin. Các cột màu xanh lá cây là những yếu tố giúp các trang web được hưởng lợi từ Penguin 2.1.

Vậy, các chuyên gia SEO có thể làm gì với những dữ liệu này?

Voniatis cho biết số liệu thống kê cho họ biết một phát hiện thú vị rằng Google đã tìm thấy khả năng đọc một cách dễ dàng bằng cách giảm các liên kết từ các bài viết không chuyên.

Ông cũng nói thêm rằng các chuyên gia SEO có thể kiểm tra khả năng đọc của tất cả các liên kết trên nội dung trang web bằng cách thủ công hoặc sử dụng các công cụ trực tuyến miễn phí. SEO có thể phủ nhận các liên kết hoặc tu sửa lại nội dung trên các trang đích để điều chỉnh khả năng đọc tới ngưỡng tối ưu.

Thứ Sáu, 28 tháng 2, 2014

4 chiến thuật quan trọng cải thiện kết quả tìm kiếm trong năm 2014

Thuật toán Google đã thay đổi rất nhiều trong 7 năm qua để đem lại kết quả tìm kiếm tốt hơn cho người dùng.
Trong khi có những thay đổi đáng kể về các kết quả hiển thị cho truy vấn địa phương, Google lại giữ nguyên hướng xây dựng và tối ưu của các ứng dụng Google Business / Google Places/ Google Maps / Google Plus.
Một số yếu tố như các dữ liệu organic signals là cơ sở lý tưởng để Google căn cứ và cho hiển thị kết quả địa phương trên các trang kết quả tìm kiếm của mình. Mặt khác, mặc dù các yếu tố social media (truyền thông xã hội) đang bắt đầu được đưa vào thành yếu tố đánh giá trong SERPs, tuy nhiên tại thời điểm này, chúng vẫn chưa có vai trò nhiều trong các xếp hạng địa phương.

Thứ Ba, 24 tháng 12, 2013

Matt Cutts: 25 – 30% nội dung trên web là trùng lặp!

Matt Cutts, người đứng đầu bộ phận chống spam của Google, vừa đăng một đoạn video về vấn đề nội dung trùng lặp và các hậu quả của nó trong kết quả tìm kiếm của Google.
Theo Matt, có tới 25% đến 30% nội dung trên web là trùng lặp. Trong tất cả các trang web trên Internet, hơn một phần tư nội dung của chúng là lặp đi lặp lại hay trùng lặp nhau.

Thứ Tư, 18 tháng 12, 2013

Google cập nhật pagerank trong đợt giáng sinh 2013

Giáng sinh năm nay đã đến sớm với các Webmaster khi PageRank đã chính thức được cập nhật, lần đầu tiên kể từ tháng Hai năm 2013. Điều này gây ngạc nhiên cho nhiều người, vì chính Matt Cutts đã cho biết không có kế hoạch cho một cập nhật Pagerank nào trong năm 2013 do các vấn đề kỹ thuật.
Tại Pubcon Las Vegas vào tháng Mười, Cutts nói rằng chúng ta đã không thấy một cập nhật PageRank nào gần đây vì các ống truyền dữ liệu PageRank từ các máy chủ của Google trong thanh công cụ đã bị hỏng. “Chưa có kế hoạch để sửa chữa chúng”, ông nói, “ít nhất là từ giờ đến cuối năm 2013”. Tuy nhiên, có vẻ như họ đã thấy vấn đề đủ quan trong để họ sửa chữa các lỗi hỏng trên.

Chủ Nhật, 15 tháng 12, 2013

Công cụ tìm kiếm xếp hạng trang web như thế nào?

Công cụ tìm kiếm xếp hạng website như thế nào? đây có lẽ là câu hỏi được nhiều SEO quan tâm. Để giúp bạn giải đáp thắc mắc này tôi sẽ cung cấp một số khái niệm cơ bản được sử dụng trong tìm kiếm hiện đại. Đây không phải là hướng dẩn của Google hay là Bing mà nó là kinh nghiệm và những gì tôi đúc kết trong quá trình nghiên cứu và làm SEO.

Thứ Năm, 12 tháng 12, 2013

Google + tác động lên kết quả tìm kiếm như thế nào?

Cách đây không lâu, Greg Jarboe đã tổng hợp bài viết về kết quả nghiên cứu mà tôi từng thực hiện, chỉ ra rằng các liên kết được chia sẻ trên Google+ dường như không tạo ra tác động nào đến kết quả làm SEO. Nghiên cứu này tập trung vào tác động của các liên kết chia sẻ Google+ khi chúng xảy ra trong điều kiện bị cô lập hoàn toàn và các kết quả tôi đề cập tới là các kết quả "phi cá nhân hóa”.
Tuy nhiên, trên thực tế, Google lại tác động lên kết quả tìm kiếm theo nhiều cách.

Thứ Năm, 5 tháng 12, 2013

Tối ưu hóa hình ảnh

Tối ưu hóa hình ảnh tốt sẽ giúp website đạt thứ hạng cao trong SERPs, tuy nhiên rất nhiều SEO lại không chú trọng tới vấn đề này. Trong bài viết này chúng tôi sẽ chỉ cho bạn ba cách đơn giản và hiệu quả nhất để tối ưu hóa hình ảnh.


Thứ Tư, 27 tháng 11, 2013

15 yếu tố website cần có!

Một website tốt cần hội đủ 3 điều
1. Mang về lượng người xem cao
2. Giữ người xem tương tác tốt 
3. Điều hướng tốt người xem khi họ dang ở trên site (call-to-action, đặt hàng.v.v..)
Để đạt được điều trên thì 15 yếu tố sau đây website cần nên có

Thứ Ba, 26 tháng 11, 2013

Hãy dùng Disavow Tool thoải mái

Trong 1 video mới đây của Matt Cutt (trùm bộ phận tìm kiếm và chống spam của Google), Matt Cutt đã đề cập đến việc sử dụng disavow tool ngay cả khi không có hành động spam hay tạo liên kết xấu.


Theo Matt thì với các trường hợp sau bạn cứ vô tư sử dụng disavow tool:
 (1) Cố gắng yêu cầu, năn nỉ, van xin các kiểu nhưng webmaster không quan tâm hoặc không chịu dỡ bỏ link giùm.
(2) Bạn nghĩ rằng liên kết do đối thủ cố tình tạo ra để “hãm hại” website của mình
(3) Các liên kết trỏ về site nhưng bạn “không chơi” vì không thích hay vì lý do nào đó
(4) Sự tăng đột biến liên kết về site và bạn lo sợ điều đó sẽ ảnh hưởng đến site
(5) Bạn sợ thằng dở người nào đó đi report website của mình
(6) Ranking đột ngột giảm và bạn sợ Penguin đang hỏi thăm sức khỏe site mình
(7) Không an tâm với cái mớ liên kết hiện có của site.

Matt cho biết việc dùng disavow tool không có nghĩa là website đang sử dụng back-hat SEO hoặc thuê dịch vụ SEO dở hơi nào đó để spam backlink (hâu quả là không thể gỡ cái đám liên kết đó ra) . Nói chung là cứ thoải mái dùng  Disavow Tool ngay cả khi không có hành động spam hay tạo liên kết xấu.