Trong vài năm gần đây, sự gia tăng quảng cáo (ads), các tính năng SERP (SERP Features) và câu trả lời tức thì đã “lấy đi” khá nhiều lượt nhấp khỏi kết quả tự nhiên. Thế nhưng Google lại không giúp chúng ta dễ dàng nắm bắt những thay đổi này.
Quan trọng hơn cả, Google gần đây thông báo sắp có nhiều thay đổi lớn về Tìm kiếm (Search), trong bối cảnh người dùng tương tác nhiều hơn với chatbot AI cũng như các nền tảng như TikTok để tìm thứ họ cần.
Việc đo lường tác động của thay đổi bố cục SERP lên lưu lượng tự nhiên là rất phức tạp. Do đó, đôi khi chúng ta không tìm ra cách đúng để xoay chuyển đà sụt giảm traffic và làm mất uy tín.
Câu hỏi lớn là: “Làm sao đo lường tác động của những thay đổi trong kết quả tìm kiếm lên lưu lượng tự nhiên?”
Lời giải: Thực hiện phân tích “SEO erosion” (sự xói mòn SEO).
SEO erosion là gì?
“SEO erosion” xảy ra khi lưu lượng tự nhiên giảm dần theo thời gian vì lý do không liên quan đến các vấn đề nội bộ của website.
Phân tích “erosion” tập trung vào 3 dạng xu hướng:
- Lưu lượng tự nhiên chuyển sang trả phí
- Lưu lượng tự nhiên giảm vì lý do không liên quan đến trả phí, chẳng hạn do xuất hiện mới/thêm các SERP Features
- Lưu lượng tự nhiên giảm do lượng tìm kiếm ít đi (thị trường chững lại)
Ví dụ trong ảnh chụp màn hình bên dưới cho thấy thứ hạng (rank) tự nhiên ổn định suốt 12 tháng qua, nhưng CTR lại giảm.

Cùng một chế độ xem với số lần hiển thị thay vì thứ hạng (vì chúng ta biết nó là phẳng) cho thấy số lần hiển thị tăng lên như thế nào, nhưng CTR vẫn không đổi. Nhiều người thấy kết quả nhưng không nhấp vì có vẻ như có thứ gì đó khác mang lại kết quả tốt hơn.

3 lý do khiến lưu lượng tự nhiên “xói mòn”:
- Quảng cáo (Ads) ở vị trí đầu và “Shopping ads” (quảng cáo mua sắm)
- SERP Features như Featured Snippets, Instant Answers, Knowledge Panels, danh sách ảnh (image carousels), danh sách video (video carousels) hoặc local packs
- “Query refinement bubbles” (gợi ý tinh chỉnh truy vấn), giúp người dùng đi sâu vào kênh chuyển đổi ngay trong Google thay vì truy cập trang khác
Điều khó khăn ở chỗ, tác động của SEO erosion khá âm thầm. Bạn sẽ không nhận ra cho tới khi doanh thu từ SEO giảm khoảng 20% so với năm trước và bắt đầu tự hỏi “Chuyện gì xảy ra vậy?”
Erosion đặc biệt khó phát hiện trong 3 năm qua, do đại dịch làm xáo trộn hành vi người dùng. Nhiều từ khóa có khối lượng tìm kiếm thấp hơn trong năm nay và năm ngoái vì nhu cầu đã được “kéo lên” trước trong đại dịch.
Cách thực hiện phân tích “erosion”
3 dấu hiệu cảnh báo cho bạn biết liệu có thể xảy ra tình trạng xói mòn lưu lượng truy cập hữu cơ hay không:
- Nếu vị trí tự nhiên không thay đổi nhưng lưu lượng truy cập tự nhiên lại giảm thì đó không phải là vấn đề về SEO mà là do quảng cáo hoặc Tính năng SERP.
- Nếu lưu lượng truy cập/chuyển đổi tự nhiên giảm và có xu hướng trả phí, thì có khả năng là có sự chuyển dịch từ tự nhiên sang trả phí.
- Nếu lưu lượng truy cập tự nhiên giảm và lưu lượng truy cập trả phí vẫn ổn định hoặc cũng giảm, thì có thể vấn đề nằm ở Tính năng SERP.
Chúng tôi có thể sử dụng dữ liệu lưu lượng truy cập từ Search Console và Google Analytics hoặc công cụ phân tích web tùy chọn của bạn để xác định và xác thực các giả thuyết về việc làm giảm lưu lượng truy cập tự nhiên.
Chỉ riêng dữ liệu GSC cũng đủ hữu ích để biết bạn đã mất lưu lượng truy cập ở đâu mà không bị mất thứ hạng.

Nhưng chúng ta có thể tiến xa hơn một bước nữa. Trong ảnh chụp màn hình bên dưới, bạn thấy ví dụ về phân tích xói mòn với những thay đổi về thứ hạng hữu cơ, lưu lượng truy cập, chuyển đổi và doanh thu so với năm trước và lưu lượng truy cập trả phí. Nó cho phép bạn nhanh chóng phát hiện ra các mẫu trang bị mất lưu lượng truy cập hữu cơ nhưng lại có được lưu lượng truy cập trả phí hoặc mất lưu lượng truy cập hữu cơ với thứ hạng ổn định.

Sau đây là cách bạn có thể tự mình xây dựng một bản phân tích như vậy:
Bước đầu tiên để tìm hiểu xem lưu lượng truy cập tự nhiên của bạn đang giảm hay tăng đột biến là tạo đường cong nhấp chuột tùy chỉnh cho toàn bộ tháng gần nhất và so sánh theo năm (Y/Y). Tôi đã mô tả chi tiết về điều này trong Tầm quan trọng của đường cong nhấp chuột tùy chỉnh , vì vậy tôi sẽ không dành thời gian cho cách tạo đường cong này trong Bản ghi nhớ này.
Xói mòn đã xảy ra nếu đường cong nhấp chuột của bạn cho thấy tỷ lệ nhấp chuột thấp hơn so với năm trước. Tuy nhiên, đường cong nhấp chuột không thể cho bạn biết lý do, chỉ có điều gì đó đã thay đổi. Bạn vẫn cần tìm ra trình điều khiển nhưng hãy lưu ý rằng có thể không có một nguyên nhân gốc rễ nào cả .
Để tiếp cận gần hơn với trình điều khiển chính, bạn có thể sử dụng dữ liệu lưu lượng truy cập để thu hẹp giả thuyết của mình . Tôi đang sử dụng Google Analytics kết hợp với Search Console để mô tả các bước cụ thể vì đây là công cụ phân tích web được sử dụng nhiều nhất hiện nay, nhưng bạn có thể tạo lại phân tích bằng bất kỳ công cụ nào.
Trong Universal Google Analytics:
- Vào “Behavior → Site content → Landing pages”
- Thêm các phân đoạn (segments) cho organic và paid
- Chọn goal chính của bạn ở dạng event (cần gắn thẻ và xác định goal chính, gán giá trị)
- Xuất dữ liệu (export)

Tiếp theo, lấy thứ hạng hữu cơ cho từng trang từ Search Console. Bước này hoạt động tốt nhất với tích hợp Search Analytics for Sheets vì bạn có nhiều dữ liệu hơn, nhưng bạn cần chạy các lần kéo riêng cho từng năm (tiện ích mở rộng không có chế độ so sánh). Đảm bảo chọn cùng khoảng thời gian như trong Google Analytics.
Ở bước cuối cùng, sử dụng VLOOKUP hoặc INDEX MATCH để khớp dữ liệu Ga và GSC theo URL và tính toán delta giữa tháng trước và cùng tháng năm ngoái. Bạn có thể phải xóa giao thức (https://) và tên miền gốc (www.domain.com) khỏi dữ liệu GSC để khớp dữ liệu GA.
Ở bước cuối cùng, hãy sắp xếp bảng tính theo doanh thu hữu cơ hoặc chuyển đổi âm và xem các cột xếp hạng và lưu lượng truy cập để xác định giả thuyết của bạn.
Để xác thực giả thuyết của bạn, hãy cô lập các trang bị giảm lưu lượng truy cập tự nhiên và xem ảnh chụp màn hình SERP cho các truy vấn mất nhiều lượt nhấp/CTR/lượt hiển thị nhất. Bạn có thể xem thông tin này trong Semrush ở mục Theo dõi vị trí hoặc Tổng quan từ khóa và trong Ahrefs ở mục Trình khám phá từ khóa (so sánh SERP giữa hai ngày).
Bạn càng thu hẹp tầm nhìn của mình, nó càng trở nên sắc nét hơn. Có một số cách để phân đoạn dữ liệu của bạn:
- So sánh một tháng đầy đủ với cùng tháng của năm trước
- Thu hẹp tầm nhìn của bạn xuống một thư mục con hoặc thậm chí là trang đích
- Chỉ xem dữ liệu từ một quốc gia và/hoặc thiết bị
- Hãy nhớ rằng GSC lọc lưu lượng truy cập, đặc biệt là khi bạn có nhiều URL, vì vậy hãy đảm bảo thiết lập các thuộc tính GSC riêng cho các thư mục con
- Lọc các truy vấn về thương hiệu (chỉ có thể thực hiện đối với GSC)
Chuẩn bị cho tình trạng “xói mòn” lưu lượng tự nhiên nhiều hơn
Chatbot AI và sự phân mảnh kênh tìm kiếm đang tạo áp lực lớn cho Google. Tôi dự đoán lưu lượng tự nhiên sẽ còn “xói mòn” nhiều hơn do:
- Nhiều tính năng SERP mới,
- Người dùng chuyển sang chatbot AI để lấy câu trả lời,
- Nhiều người thích dùng các công cụ tìm kiếm chuyên biệt như Amazon, Pinterest hoặc Booking để cho kết quả tốt hơn.
Để theo dõi những thay đổi này, tôi khuyên bạn nên phân tích “erosion” ít nhất 6 tháng/lần, đồng thời lưu trữ dữ liệu về thứ hạng và traffic trong một “data lake” (kho dữ liệu) và trực quan hóa (visualize) sự thay đổi theo thời gian.




1 Comment
Pingback: Làm thế nào bù lại lượng traffic bị mất trong E-commerce? | Infinity