Nội dung kiếm tiền từ quảng cáo và affiliate: Còn là mô hình kinh doanh tốt?
Sự lạc quan trong giới CEO của các nhà xuất bản không cao lắm.
“Chỉ một nửa (47%) trong số các biên tập viên, CEO và giám đốc kỹ thuật số mà chúng tôi khảo sát nói rằng họ tự tin về triển vọng của ngành báo chí trong năm tới, khoảng một phần mười (12%) tỏ ra ít tự tin. Những lo ngại được nêu ra liên quan đến chi phí tăng, doanh thu quảng cáo giảm, tăng trưởng đăng ký chậm lại – cũng như sự quấy rối pháp lý và thể chất gia tăng.”¹
Các nhà xuất bản đang bị “chèn ép” từ nhiều phía:
- Ít ai chuẩn bị cho cái chết của cookie bên thứ 3.
- Mạng xã hội gửi ít lưu lượng hơn (Meta) hoặc chất lượng giảm sút (X).
- Hầu hết người trẻ lấy tin tức từ TikTok.
- SGE (Search Generative Experience) đang “rình rập” ở chân trời.
Trích từ “Cookie bên thứ 3 ‘bay màu“:
“McKinsey ước tính các nhà xuất bản sẽ mất 10 tỷ đô la doanh thu quảng cáo.
NAB nhận thấy rằng ngành phát thanh và truyền hình sẽ mất 2,1 tỷ đô la doanh thu quảng cáo kỹ thuật số hàng năm, chiếm 6,3% tổng doanh thu quảng cáo của ngành, nếu cookie bên thứ 3 bị loại bỏ mà không có giải pháp thay thế bảo vệ quyền riêng tư.”
Một triệu chứng khác của vấn đề kiếm tiền từ nội dung miễn phí là Artifact, ứng dụng tổng hợp tin tức, đã đóng cửa. Lý do: Cơ hội thị trường quá nhỏ.
Tôi thực sự thích ứng dụng này. Nó được tạo ra bởi Kevin Systrom và Mike Krieger, đồng sáng lập Instagram, những người chắc chắn biết một hai điều về việc xây dựng ứng dụng tiêu dùng thành công. Artifact giúp việc lướt tin tức trở nên dễ dàng, tóm tắt các điểm chính bằng AI và cung cấp trải nghiệm liền mạch. Nhưng ngay cả một sản phẩm tuyệt vời cũng không đủ khi thị trường không có.
Quảng cáo không phải là cách duy nhất để kiếm tiền từ nội dung “miễn phí”. Affiliate là một mô hình kinh doanh khác, và nó cũng đang chịu áp lực nặng nề.
Theo Axios, Red Ventures đang xem xét bán CNET²:
“Red Ventures đã âm thầm tiếp cận các người mua chiến lược, chủ yếu là các công ty truyền thông lớn khác, trong vài tháng qua để đánh giá sự quan tâm của họ đối với CNET, nhưng các cuộc đàm phán bắt đầu tăng tốc trước kỳ nghỉ lễ, theo các nguồn tin cho Axios.”
Red Ventures mua CNET vào năm 2020 với giá 500 triệu đô la. Trong 3 năm qua, tổng lưu lượng truy cập vào cnet.com đã giảm hơn 70%.

Điều này không có nghĩa là các yếu tố bên ngoài là nguyên nhân cho sự suy giảm của CNET, nhưng bạn có một số chuyên gia SEO và tiếp thị nội dung giỏi nhất đang làm việc tại Red Ventures. Cạnh tranh rất khốc liệt. Google đã trở nên “cứng rắn”. Tỷ lệ hoa hồng affiliate đã bị cắt giảm nhiều lần.
Ngoài kia thực sự khắc nghiệt. Sớm thôi, SGE có thể xuất hiện bên cạnh việc cookie bên thứ 3 “bay màu” và lưu lượng truy cập vào web mở giảm.
Tác động của SGE
Một bài báo từ Wall Street Journal đã tiết lộ những con số không mấy dễ chịu về tác động của SGE³:
“Khoảng 40% lưu lượng web của tạp chí đến từ các tìm kiếm Google, nơi hiển thị các liên kết mà người dùng nhấp vào. Một nhóm tại Atlantic đã mô hình hóa điều gì có thể xảy ra nếu Google tích hợp AI vào tìm kiếm. Họ nhận thấy rằng 75% thời gian, tìm kiếm được hỗ trợ AI có thể cung cấp câu trả lời đầy đủ cho truy vấn của người dùng và trang web của Atlantic sẽ mất lưu lượng mà họ lẽ ra đã nhận được.”
“Trong khi Google nói rằng hình dạng cuối cùng của sản phẩm AI của họ còn xa mới được định hình, các nhà xuất bản đã thấy đủ để ước tính rằng họ sẽ mất từ 20% đến 40% lưu lượng do Google tạo ra nếu bất kỳ phiên bản nào giống như các phiên bản gần đây được triển khai rộng rãi.”
Mất 20-40% lưu lượng sẽ đồng nghĩa với sự kết thúc cho nhiều nhà xuất bản nếu không có lựa chọn thay thế xuất hiện.
Nhiều trang nội dung nhận hơn 80% lưu lượng từ Google.
“Barry Diller, chủ tịch của IAC và Expedia, cho biết tất cả các công ty AI lớn, bao gồm Google và các đối thủ như OpenAI, đã hứa rằng họ sẽ tiếp tục gửi lưu lượng truy cập đến các trang web của nhà xuất bản. ‘Cách họ làm điều đó, họ đã rất rõ ràng với chúng tôi và những người khác, họ thực sự không biết,’ ông nói. Nhiều tài sản của IAC, như Brides, Investopedia và The Spruce, nhận hơn 80% lưu lượng truy cập từ Google, theo SimilarWeb.”
Một phức tạp là Google không thể theo dõi đầu ra của LLM. Kết quả là, nhiều nhà xuất bản có thể thử dùng AI để tạo thêm nội dung bù đắp cho sự thiếu hụt lưu lượng.
“Các giám đốc cấp cao của IAC đã gặp các giám đốc cấp cao của Google tại hội nghị Allen & Company ở Sun Valley, Idaho, vào tháng 7 để thảo luận về AI. Google nói với các nhà xuất bản tại cuộc họp rằng họ không thể trực tiếp theo dõi nguồn gốc đằng sau các đầu ra của hệ thống AI, mặc dù đã có những tiến bộ công nghệ gần đây, theo những người quen thuộc với các cuộc thảo luận.”
Ngay cả ngày nay, bạn có thể mua dịch vụ tạo nội dung AI siêu địa phương.

Bài báo WSJ cũng cho biết SGE đang được thử nghiệm trên 10 triệu người dùng. (Nguồn)
Áp lực lên các nhà xuất bản và affiliate, kết hợp với công nghệ mới có sẵn, dẫn đến nhiều spam SEO hơn.
LLM và spam
Một nghiên cứu mới từ Đức đã điều tra liệu “Google có đang trở nên tệ hơn”⁴. Để tìm câu trả lời, các nhà nghiên cứu đã thu thập kết quả trên Google, Bing và DuckDuckGo cho 7.392 truy vấn đánh giá sản phẩm. Sau đó, họ so sánh xếp hạng với các công cụ tìm kiếm nghiên cứu Chat Noir và ClueWeb22, xếp hạng nội dung với BM25* và sau đó xếp lại với BERT⁵.
* (BM25 là điểm số được tính bằng cách xem xét tần suất xuất hiện của các từ truy vấn trong tài liệu, điều chỉnh theo độ dài tài liệu và độ độc đáo của các từ truy vấn trong toàn bộ tập tài liệu. Tài liệu có điểm số cao hơn được coi là liên quan hơn đến truy vấn.)
Nghiên cứu tiết lộ một số điểm thú vị:
- Thứ nhất, dễ dàng nhận ra nội dung affiliate trong công cụ tìm kiếm. Nếu các nhà nghiên cứu có thể, Google cũng có thể.
“Chúng tôi cũng tìm thấy sự tương quan mạnh mẽ giữa xếp hạng công cụ tìm kiếm và tiếp thị liên kết, cũng như xu hướng hướng tới nội dung đơn giản hóa, lặp đi lặp lại và có thể được tạo bằng AI.”

- Thứ hai, Google đang trở nên tốt hơn theo thời gian nhưng vẫn hiển thị một lượng đáng kể spam SEO trong kết quả hàng đầu.
- Thứ ba, rất khó để luôn đi trước những kẻ spam. Đó là một cuộc chiến hào: kẻ spam bị đánh bởi các bản cập nhật thuật toán và dần dần “leo trở lại.
Kết quả nghiên cứu làm cho chúng ta hiểu tại sao Google đã tung ra một loạt các bản cập nhật thuật toán xung quanh đánh giá trên web trong 3 năm qua.
Số lượng spam và nội dung tối ưu hóa quá mức trên Google đã bị chỉ trích rất nhiều gần đây. Nghiên cứu của Đức cũng tìm thấy mối quan hệ giữa tối ưu hóa tìm kiếm và chất lượng được cảm nhận thấp hơn:
“Một nghiên cứu gần đây của Schultheiß và cộng sự điều tra sự tương thích giữa SEO và chất lượng nội dung trên các trang web y tế với một nghiên cứu người dùng. Nghiên cứu tìm thấy mối quan hệ nghịch đảo giữa mức độ tối ưu hóa của trang và chuyên môn được cảm nhận của nó, chỉ ra rằng SEO có thể gây hại ít nhất là chất lượng trang chủ quan.”
Một phần lớn của “vấn đề” là SEO hiệu quả, và các công ty sử dụng nó để kiếm tiền. Cá nhân tôi đã thấy nhiều ví dụ về nội dung được tối ưu hóa và có chất lượng được cảm nhận cao hơn như một kết quả. Nhưng đó không phải là mặc định. Sự thật là, bạn có thể tối ưu hóa nội dung cho tìm kiếm, làm cho nó xếp hạng và cũng làm cho nó rất chung chung trong quá trình. Các nhà xuất bản và affiliate cần tiết kiệm doanh thu sẽ không thể tránh khỏi điều đó lâu.
Trích từ “Các chuyên gia SEO đã phá hủy Internet hay Google?“:
“⛏️ Vấn đề cơ bản: Những ngày này, tôi ‘rùng mình’ khi mọi người tách biệt ‘nội dung cho Google’ khỏi ‘nội dung cho người dùng’. Tuy nhiên, không phải mọi thứ tốt cho người đọc đều tốt cho SEO. Kịch bản chiến thắng trong SEO thường dẫn đến nội dung trung bình, nhưng nó hiệu quả. Thực tế khắc nghiệt là Google chưa tìm ra cách thưởng cho nội dung tốt nhất và lọc ra nội dung ‘rác’. Đến một mức độ nào đó, bạn cần đổ lỗi cho trò chơi, không chỉ người chơi.”
Nghiên cứu không chỉ cho thấy các trang trại đánh giá và trang spam thuần túy mà còn nhiều nhà xuất bản “thoát khỏi” với chất lượng thấp hơn:
“Loại trang phổ biến nhất mới xuất hiện trong top 30 lần đầu tiên dường như là tạp chí, gợi ý rằng có một phần đánh giá chất lượng thấp riêng biệt để hỗ trợ nội dung chính của trang web là một mô hình kinh doanh thành công và sinh lợi.”

CEO của Perplexity AI, Srinivas, xem chatbot AI như giải pháp cho vấn đề:
“Với Perplexity, không cần phải nhấp vào các liên kết khác nhau, so sánh câu trả lời hoặc tìm kiếm thông tin không ngừng,” ông nói. “Thời đại lướt qua spam SEO, liên kết được tài trợ và nhiều nguồn sẽ được thay thế bằng mô hình thu nhận và chia sẻ kiến thức hiệu quả hơn, thúc đẩy xã hội vào kỷ nguyên mới của học tập và nghiên cứu tăng tốc.”
Perplexity đã huy động được 73,6 triệu đô la từ các nhà đầu tư như IVP, Jeff Bezos, Tobi Lütke và các tên tuổi lớn khác. Mục tiêu: đối đầu với Google bằng một công cụ tìm kiếm AI.
Trong khi hơn 10 triệu người đã sử dụng Perplexity, việc đối đầu với Google gần như là không thể. Cơ hội thì hấp dẫn: 1% doanh thu của Google là 2,8 tỷ đô la, và Perplexity không có những ràng buộc như Google. Nhưng nhiều người khác, như Neeva, đã thử và thất bại mặc dù được tài trợ lớn và có các giám đốc chủ chốt từ Google.
Perplexity “ném xương” cho web mở bằng cách liên kết cẩn thận đến các nguồn, tăng cơ hội sống sót cho các nhà xuất bản. Tuy nhiên, các nhà xuất bản không ngồi im chờ “án tử”.
Kiện tụng
New York Times (NYT) đang kiện OpenAI vì vi phạm bản quyền. Lập luận mạnh nhất là trích dẫn chính xác một số bài báo của họ, như hồ sơ vụ kiện cho thấy.⁷

Hiện tượng LLM trích dẫn nội dung nguyên văn từ dữ liệu huấn luyện được gọi là memorization và là một lỗi, theo phản hồi của OpenAI đối với vụ kiện.⁸
Mặc dù có điều để nói về việc được bồi thường cho dữ liệu huấn luyện, vụ kiện của NYT có thể không phải là người chiến thắng rõ ràng như ban đầu.
Ví dụ, các lời nhắc được sử dụng trong hồ sơ vụ kiện dường như đã được thiết lập sao cho ChatGPT không còn lựa chọn nào khác ngoài việc trả lại nội dung nguyên văn.

Các lời nhắc này tương tự như truy vấn thương hiệu trên Google. Tất nhiên, Google trả về kết quả từ một trang web khi tên của nó được đề cập trong tìm kiếm. ChatGPT không hành xử khác, và tại sao lại phải như vậy?
Vụ kiện lập luận rằng OpenAI vi phạm các bài viết trả phí, nhưng bài viết được nhắc trong ảnh chụp màn hình trên (“Snow Fall: The Avalanche at Tunnel Creek”) không phải là trả phí. Hơn nữa, một số bài viết của NYT được trích dẫn đầy đủ trong các diễn đàn web hoặc trang web bên thứ ba khác.
Từ phản hồi của OpenAI (in đậm của tôi):
“Thú vị là, các đoạn trích mà The New York Times ‘dẫn dụ’ dường như đến từ các bài báo cũ nhiều năm đã lan truyền trên nhiều trang web bên thứ ba. Có vẻ như họ cố tình thao túng các lời nhắc, thường bao gồm các đoạn trích dài của bài báo, để khiến mô hình của chúng tôi trả lại nguyên văn. Ngay cả khi sử dụng các lời nhắc như vậy, các mô hình của chúng tôi thường không hành xử như The New York Times ám chỉ, điều này cho thấy họ hoặc hướng dẫn mô hình trả lại nguyên văn hoặc chọn lọc ví dụ từ nhiều lần thử.”
Nhiều người xem vụ kiện của NYT như một tiền lệ cho các nhà xuất bản khác, nhưng NYT có thể thực sự hưởng lợi từ nội dung AI và việc sử dụng chatbot. Có hàng ngàn kênh tin tức, hầu hết có thể thay thế. Nhưng New York Times và một vài nhà xuất bản khác có thương hiệu rất khác biệt.
NYT cũng được thiết lập để thành công, là trang web trả phí lớn nhất trên web:
- 70% doanh thu đến từ đăng ký (47% kỹ thuật số, 23% in ấn)
- 20% doanh thu đến từ quảng cáo
- 10% doanh thu đến từ affiliate (The Wirecutter), sự kiện và hơn thế nữa
Vụ kiện đặt ra một số câu hỏi thú vị cho nội dung kiếm tiền từ quảng cáo và affiliate trên web trong tương lai:
- Làm thế nào các nhà xuất bản và affiliate có thể bảo vệ nội dung của họ khỏi bị thu thập bởi các nhà phát triển LLM hoặc tổ chức phi lợi nhuận như Common Crawl?
- Mô hình kiếm tiền chính cho các nhà xuất bản và affiliate trông như thế nào trong thế giới ưu tiên LLM?
- Đâu là ranh giới giữa tổ chức phi lợi nhuận và vì lợi nhuận trong việc sử dụng nội dung có bản quyền? OpenAI dường như đã sử dụng các chỉ mục công khai của nội dung web như Common Crawl khi nó vẫn là tổ chức phi lợi nhuận.
- **Đoạn trích nổi bật (Featured Snippets) có ít vi phạm bản quyền hơn so với trích dẫn hoặc diễn giải của LLM không? Có ổn không khi các diễn đàn hoặc blog sao chép/dán các bài viết trả phí?
- Trách nhiệm của công cụ tìm kiếm so với chatbot AI khi cung cấp câu trả lời trực tiếp là gì?
Tham khảo:
- Dự báo và xu hướng truyền thông và công nghệ năm 2024 của Viện Reuters
- Axios: Red Ventures đàm phán bán CNET
- WSJ: Các nhà xuất bản tin tức xem công cụ tìm kiếm AI của Google như một cơn ác mộng phá hủy lưu lượng
- Nghiên cứu: Google có đang trở nên tệ hơn?
- ClueWeb22
- TechCrunch: Công cụ tìm kiếm AI Perplexity AI huy động 70 triệu đô la, định giá 520 triệu đô la
- Hồ sơ vụ kiện của NYT chống lại OpenAI
- OpenAI: Phản hồi về báo chí và AI




3 Comments
Pingback: Một làn sóng mới trong nỗ lực gắn nhãn nội dung AI | Infinity
Pingback: 5 vấn đề khó khăn của Google ở thời điểm hiện tại | Infinity Digital
Pingback: Điều gì thực sự đằng sau thỏa thuận của Google với Reddit | Infinity Digital