知乎藍海:2000W流量機會掘金指南

根據我本地數據的不完全統計(知乎百度top3關鍵詞),百度PC端關鍵詞總流量為:1億2743萬,知乎實際獲取總流量為:1億2743萬 x 0.15(平均點擊率) = 1911萬,這只是單看PC端,一個超過2000W的流量機會擺在我們面前

知乎藍海:2000W流量機會掘金指南

 

根據我本地數據的不完全統計(知乎百度top3關鍵詞)

百度PC端關鍵詞總流量為:1億2743萬

知乎實際獲取總流量為:1億2743萬 x 0.15(平均點擊率) = 1911萬

這只是單看PC端,一個超過2000W的流量機會擺在我們面前

一切依靠互聯網賺錢的前提,就是必須先獲取流量,而現在流量比黃金還寶貴

真實情況是,我身邊已經有5+位的朋友,在近半年內,依靠此次機會獲得了6W~25W不等的收益

而我們只需要一雙勤勞的雙手和一個思維清晰的大腦

那么

為什么會有這個流量機會?

流量機會具體指的是什么?

我們如何從中獲取流量?

下面,讓我來為你打開這扇流量的大門

閱讀指導:不同于市面上的各種“爽文”,本文按照我的實際思路,使用了正敘的方式講述如何“從0到1”,需要朋友一邊閱讀一邊思考,建議拿出一整塊的時間(10-20分鐘)進行閱讀

1. 資本的游戲

在“江湖”上流傳著這么一段話,大致內容是:

站長收割機,流量截胡達人百度daddy在2019年8月跟投知乎,快手領頭,隨后,百度對知乎提權,流量表現節節攀升

當時我看到這段話的時候,對接受的信息量打了一個問號,為什么?

熟悉傳播學的朋友應該知道一條基本原則:

對于任何事情,我們要盡量關注事實判斷,而非價值判斷

因為事實判斷是確鑿的,能夠達成共識 ;而價值判斷是依賴于視角和立場的,可以有多種解讀

這里的投資事件為事實描述,后面產生的影響為價值描述

然而就這么一個簡單的事實性描述網上卻有N個版本,有說錯時間點的,還有說錯投資方的

進行驗證后,你還會發現百度也投資過快手,可能是另外一個機會?

有時候思路就是根據事實發散出來

那么關于價值判斷,是不是真的有流量增長?是不是真提權?

直接上數據驗證(這里從投資時間點2019.8分段取愛站半年的數據,稍有誤差并無大礙):

詞量數據

seo,關鍵詞,搜索流量

seo,關鍵詞,搜索流量

seo,關鍵詞,搜索流量

通過詞量數據我們可以觀察到以下2點:

從2019年11月中旬開始,流量跳躍式增長,詞量從30W漲到270W,近10倍!

從2020年7月開始,流量增長放緩,但仍保持增長趨勢

那么,這些流量是以何種方式增長的?

收錄數據

seo,關鍵詞,搜索流量

seo,關鍵詞,搜索流量

seo,關鍵詞,搜索流量

通過收錄數據我們可以觀察到以下兩點:

雖然數據口徑不同,但在流量跳躍式增長期間,收錄量并無增長趨勢,也就是說,原收錄頁面在對應搜索詞下的排名提升了,提權實錘

seo,關鍵詞,搜索流量

當已收錄的頁面不能覆蓋更多搜索詞的時候,百度給知乎的定向流量將到達臨界值,嗝~

上面的分析很容易造成一種“廢話感”,因為分析結果跟首次接收的信息基本相同,我們的大腦不能處理相同的信息

這恰恰是兩個思維方式“歸納法”和“演繹法”的不同之處

如果不做驗證,歸納思維隱含假設了百度提權是真實的,導致后面的動作全部基于一個假設

而演繹思維的每一步完全基于條件為“真”的前提,想想看,如果分析結果相反會導致什么結果

在這個信息爆炸的時代,我們實在太需要篩選信息的能力,其中保持獨立思考顯得尤為重要,但獨立思考并不是針對everything都要提出不同觀點

有效思考是必須建立在足夠的知識積累之上,不然就是盲目思考

如果身處陌生領域,學習同行仍然是不錯的選擇

那么雖然流量增長放緩,但如此巨大的流量知乎并沒有全量“吞下”,現在仍然有且肯定有機會來利用這個紅利期獲取流量并且賺錢

Let’s keep going !

2. SEO?

收錄?排名?提權?如果你產生了疑問,那你可能還不太了解SEO這個領域,下面簡要描述

SEO即通過了解搜索引擎(以下簡稱SE)的規則來調整網站,使其在目標搜索引擎上的排名提高,達到獲取流量的目的

收錄:SE的爬蟲系統抓取網頁后,緩存在服務器上的行為

權重:SE對站點的綜合評分,排名的主要依據

排名:頁面緩存在搜索結果中的排列位置

以上3點均為動態變化

那么,一個搜索流量是如何產生的呢?

首先用戶輸入搜索詞(query),向SE發起搜索請求,SE將已緩存的頁面通過算法進行排名計算,然后返回給前端(瀏覽器),用戶觀察搜索結果,根據自己的喜好從搜索結果中點擊頁面

一個頁面要想有流量,就得先有收錄(被SE緩存),然后還得排名靠前(top10),然后還得有人搜(搜索量),最后還得看了讓人想點擊(標題+描述)

在點擊的環節,知乎具有重要的先天優勢,經過多年“知識型”平臺的定位與發展,用戶對知乎品牌建立起天然的信任感,可能導致即便排名不在前3名,但仍然能獲得超過同位大盤的點擊率

此次雙劍合璧,百度給知乎做定向流量,而知乎又將流量效率提升了一截,美哉美哉

3. 藍海問題 + 藍海流量

那么我們的機會在哪呢?

宏宏最近缺錢,于是去百度上搜了“怎么來錢快”(真實數據,僅做示例),發現知乎某個頁面排名第1

seo,關鍵詞,搜索流量

然后小手一抖點擊進入,望著空蕩蕩的頁面,面部表情發生了細微的變化

seo,關鍵詞,搜索流量

坑爹呢這是!

5年的網賺經歷給了我敏銳的嗅覺,這是機會

于是我拿到了百萬級關鍵詞+知乎數據,篩選分析后發現,有相當一部分問題頁面有搜索流量但是存在以下情況:

回答未解決搜索需求

回答質量低

回答少

回答前N名贊少

那么我們能不能找到這類問題,自己編寫答案,然后使得排名靠前,向我們自己的載體(微信 / 公眾號等)導流?

答案是肯定的!

綜上所述,有搜索流量并且競爭低的問題,我們統稱為“藍海問題”,這些問題流量的集合,我們統稱為“藍海流量”

下面來個小炸彈,朋友們體驗先~(SE排名是動態的,大家實際搜索可能略有出入,另外考慮到公開性,大概選了一個例子)

seo,關鍵詞,搜索流量

seo,關鍵詞,搜索流量

BOOM!沒錯就是gay,同一個問題PC和移動端排名都是第2,移動月均搜索量44.7W,PC月均搜索量9.5W,加起來50W,排名第2的點擊率為20%左右,也就是說這個問題一個月有10W的SEO流量,里面的回答呢?

seo,關鍵詞,搜索流量

第1名只有58個贊,有機會上去嗎?有!有方法變現嗎?

4. 突破認知局限

有些朋友們可能到這里就坐不住了,腦子里開始構思所在行業應該如何操作

可是,萬一你所在的行業沒有藍海流量呢?為什么一定要在你熟悉的領域做呢?

流量高手的思維,從來都是大盤思維,即以全局的視野來思考問題

而此次,我們要分析知乎整體搜索流量的分布,哪里有藍海流量,我們就去到哪,而不只局限于某個問題,某個行業

甚至知乎好物完全可以基于藍海流量的思維

始終記住我們的目的只有一個,那就是賺錢

同時,這也是我寫【TACE】(Traffic ACE,流量高手)這個公眾號的主要思想,只不過后來去折騰項目,很少發文,咳咳….

前面講了不少內容,那是因為我想把“道”這個層面講清楚,即為什么這么干;而“法”是死的,規則發生變化,方法立即失效

舉個例子:特斯拉誕生之初,電池成本比當時市面上低了10倍,CEO馬斯克為什么能做到?

那是因為他的道是“物理學思維”,把事物拆解成最小單元尋求解決方案(TED有演講)

但是,80%的人都喜歡直接得到方法,why?

爸爸說他聽爺爺的姥爺說過,在幾十萬年前,人類還在狩獵階段的時候,為了存活下去,才誕生了大腦

而大腦的進化需要上百萬年,人類誕生歷史不過才二十萬年左右,也就是說現在我們還是用著“舊腦子”

其中“舊腦子”一個顯著的特點是最小作用力原理,人類天生會默認做出消耗腦力低的行為,即能不用腦就不用腦,而道理的學習用腦程度較高

包括我,每當自己懶得動腦的時候,我就嘲諷自己是個原始人,咳咳…

那么下面,就讓我們一步步的進入“戰場”

5. 打造百萬級詞庫

詞庫是用戶搜索詞和詞屬性的集合

我們盡可能的收集N個渠道的關鍵詞,因為每個渠道或第三方平臺都有他的局限性

在流量高手眼里,詞庫里躺的不是一個個的關鍵詞,而是一張張的RMB

以搜索流量的視角來看,在大多數情況下,加詞等于加流量

你能找到別人找不到的詞,你就能拿到別人拿不到的流量,從而賺到別人賺不到的錢

關于數據的儲存格式,個人建議直接使用csv形式,以逗號為分隔符的本地文件儲存,相比于mysql類的數據庫,用Bash shell來查詢和分析不要太方便

拿詞渠道:

5118,愛站,站長之家。

下面我用5118舉例

5.1 母詞獲取

1)5118

分別下載百度PC關鍵詞和移動關鍵詞,分開處理

seo,關鍵詞,搜索流量

沒有會員的朋友自行淘寶,有企業版的朋友建議全量導出

接下來的步驟,我們會開始涉及一些編程知識:

Bash shell(Linux) + Python

因為此次數據計算的需求常規工具已經不能滿足,所以我們要動用“神秘”的編程力量

我自己已經全部開發完畢,部分簡單的Bash shell命令行直接在文章內給出

但是我相信就這一點會讓80%的人知難而退,可是包括我,誰又不是從小白一步步走過來的呢?

編程真的沒有那么難,trust me!如果可以,告訴自己做那20%

另外請記住,我們不是要成為一個專業的程序員,編程能力能滿足我們當前所需就好

2)初始處理

轉碼(GBK > UTF-8),因為5118給出的數據編碼是GBK,而Linux里需要UTF-8

只輸出關鍵詞,不使用其他數據,因為第三方數據的準確度實在差強人意,像5118這種量級每天的更新量少說也要1億,成本擺在這。

獲取前100名第一因為數據準度低,后面我們要自己驗證數據第二前面提到過動態排名 & 百度提權,在你獲取數據和驗證數據中間存在時間差,在時間差里排名可能已經發生了變化。

bash shell:

cat 輸入文件名| iconv -c -f GB18030 -t utf-8| grep -Ev “整域百度PC關鍵詞排名列表|百度指數|100以外”|awk -F, ‘{print $1}’ > 輸出文件名

3)關鍵詞清理

特殊符號

[s+.!?/_,$%^*()+”‘]+|[+——!,::?!?、~@#¥%……&*()“”《》~]

非常容易忽視的一步,很多人天然信任不同渠道產出的關鍵詞數據(包括百度),但是“流量高手,”與“流量高手”的搜索量數據差了十萬八千里

網址

www|com|cn|cc|top|net|org|net|cn|rog|cn|tv|info|wang|biz|club|top|vip

年份替換,例如2010年替換為2020年

中文長度 >=2 (可選)

4)去敏感詞

非法詞匯你懂得,這里我們使用了DFA算法,平均處理一個關鍵詞不到0.1s

5) 去重

去重是非常重要的一步,但對內存要求比較高,也就是說你要去重的文件大小不能超過可使用內存大小

目前的解決方法是用sort + uniq,先用split將目標文件分割,然后用sort逐個排序,然后sort+uniq合并去重

雖然沒有大幅減少內存使用大小,但提升了計算效率

bash shell 簡版:

cat 輸入文件名 | sort | uniq > 輸入文件名

bash shell 大數據版:

#!/bin/bash#命令行參數:#$1 輸入文件#$2 輸出文件basepath=$(cd `dirname $0`; pwd)echo `date` “[wordsUniq.sh DEBUG INFO] 開始文件分割…”split -l300000 $1 ${basepath}/words_split/split_ #文件分割echo `date` “[wordsUniq.sh DEBUG INFO] 開始單個排序…”for f in `ls ${basepath}/words_split/`dosort ${basepath}/words_split/${f} > ${basepath}/words_split/${f}.sort #單個排序doneecho `date` “[wordsUniq.sh DEBUG INFO] 開始合并去重…”sort -sm ${basepath}/words_split/*.sort|uniq > $2echo `date` “[wordsUniq.sh DEBUG INFO] 刪除緩存數據…”rm ${basepath}/words_split/*

使用方法:

儲存為filename.sh文件,在當前目錄創建words_split文件夾,然后使用如下命令行,輸入輸出文件均可指定路徑

sh 腳本名稱.sh 輸入文件 輸出文件

OK,處理完畢,現在我們已經得到了兩份非?!案蓛簟钡哪冈~數據,即知乎百度PC關鍵詞和移動關鍵詞

5.2 詞擴展

詞擴展即對獲得的母詞進行擴展,因為一個頁面可能命中多個相關的關鍵詞

進而我們可以假設,從第三方平臺獲取的詞只是他們所能找到的,當前知乎所能命中的詞的子集

我們要盡可能的把其他部分的詞找出來,從而比較準確的預估一個問題頁面的百度流量

seo,關鍵詞,搜索流量

假設現在有A和B兩個問題,在你的詞庫中,A命中50個關鍵詞,總流量為1W,B命中10個關鍵詞,流量為100

那么你可能將B問題忽略掉,只處理A問題

可是,B問題實際上命中了100個關鍵詞,流量為10W

這樣由于數據的不完整性造成了信息差,進而直接錯過了獲取這些流量的機會

舉個例子:

seo,關鍵詞,搜索流量

經過擴展,這個頁面共命中47個關鍵詞,PC+移動總流量為132W,廣告太多知乎被迫風控提醒,下面是展示該部分數據

seo,關鍵詞,搜索流量

怎么樣,是不是開始慢慢感受到數據的魅力了?打起精神,Let’s keep going!

由于只做百度流量,下面只使用百度來擴展

1)相關搜索 + 下拉框詞抓取

很多人只知道抓這兩個渠道,并不知道這兩個渠道的性質:

相關搜索

相關搜索為橫向擴展,大部分為跨關鍵詞主題的相關擴展,其中可能出現主題嚴重漂移的情況,為保證相關性,只抓取一輪

下拉框

下拉框為縱向擴展,大部分在關鍵詞的結尾追加詞綴

闡明渠道性質的意義在于,關鍵詞這種文本數據,擴展方向有且只有這兩個,其他擴展渠道方法都是這兩個基本方向的疊加或者變種

因為不同端產出的數據可能不同,所以我們要把PC端和移動端的母詞,分別進行同端口的擴展

即PC母詞抓PC相關搜索 + PC下拉框,移動母詞抓移動相關搜索 + 下拉框

2)百度推廣后臺詞擴展

路徑為:注冊/登錄 > 進入搜索推廣 > 推廣管理 >?關鍵詞規劃師?> 關鍵詞

注冊免費,另外你還可以使用艾奇SEM工具/斗牛SEO工具等

3)詞處理

先將各個渠道的詞分端口合并

bash shell:

cat file1.txt file2.txt > all.txt

然后重復【5.1母詞獲取】的關鍵詞清理和去重部分

5.3 獲取關鍵詞流量

同樣使用到百度推廣后臺的關鍵詞規劃師,但使用的是“流量查詢”的功能

這是百度官方給出的流量數據,以前的數據口徑是日搜索量,現在變成了月搜索量,不過并無大礙

有的朋友可能產生疑問,為什么不先抓排名篩選數據,減輕下一步的數據量壓力?

因為關鍵詞規劃師一次能查詢1000個!10W個關鍵詞只需查詢100次!

并且實測證明獲取一次cookie可跨天使用,并保持10+個小時的有效登錄(答應我,請務必下手輕一點)

1)流量數據獲取

通過模擬登錄的方式post關鍵詞數據

2)數據篩選

每個端只保留搜索量 >= N的關鍵詞(數值自定義)

你可以在數據獲取的同時去做篩選,也可以拆開另做一個篩選步驟,這里個人建議后者,萬一指標不合理還有重新篩選的余地

bash shell:

cat file.txt | awk -F, ‘{$2>=100}’ > file_new.txt

5.4 獲取關鍵詞排名

分別獲取各端的排名數據,只保留

https://www.zhihu.com/question/{問題ID}

這個url特征下,前10名的關鍵詞,以及儲存對應的問題url

5.5 可獲取流量

關鍵詞流量并不等于知乎問題頁面能獲取的實際流量

前面提到過,搜索流量在到達頁面之前還有一個點擊的步驟,所以我們應該把可獲取流量計算出來,公式為:

可獲取流量 = 流量 X 點擊率

點擊率根據排名估算,但是百度似乎從來沒有發布過點擊率數據,咳咳…

但是我們找到了一份Sistrix在2020年7月14日發布的google點擊率數據,該數據分析了超過8000萬的關鍵字和數十億的搜索結果

雖然只是移動端的統計,但并無大礙

原文(英文):

https://www.sistrix.com/blog/why-almost-everything-you-knew-about-google-ctr-is-no-longer-valid/

seo,關鍵詞,搜索流量

每個關鍵詞的可獲取流量計算完成后,我們的詞庫就搭建完畢了,Niceee!

6. 知乎數據獲取

數據獲取的目的是,我們能從這個N個維度的數據中,初步判斷出某個問題的難易度(對應9.1數據篩選)

數據在精不在多,過多的數據只會干擾判斷

問題瀏覽量

問題關注量(知乎站內流量)

問題創建時間

回答數量

第1名贊數量

第1名回答字數

第1名回答時間

目前為止,我們需要的基礎數據全部準備完畢,現在你應該得到了一個百度 + 知乎數據的關鍵詞文件,good job!

如果你堅持到了這里,我相信,我會非常愿意認識你這樣的朋友^_^

7. 數據分析

7.1 關鍵詞分組

面對海量雜亂無章的數據,我們需要通過關鍵詞分組的形式,將相關的關鍵詞和其對應的問題頁面聚集到一起

1)jieba分詞

利用python-jieba模塊,將每個關鍵詞切分成N個詞項(term),比如“流量高手”會被分詞為“流量”+ “高手“,包含相同詞項的詞視為一組

2)詞項去重

參考【5.1母詞獲取】的去重部分

3)詞項數據計算

用每個詞項去匹配關鍵詞,并計算匹配結果的數量(詞頻)和可獲取流量總和

SEO的朋友們可能有種熟悉的感覺,這種方式類似于搜索引擎的“倒排索引”,我們實際上就是以term為索引,歸類了知乎URL

下面隨便拿點演示數據:

seo,關鍵詞,搜索流量

7.2 人工分類

直接按詞項分組是單純從字符串角度上的分組,簡單粗暴但缺乏語義關系

比如“炒股”和“股票”這兩個特征應該屬于金融類,但按詞項分組就會變成兩組,所以最后應該人工過一遍

分類完成后,將對應的詞頻和可獲取流量總和相加,得到總數據

然后用思維導圖/表格的形式記錄,下面用思維導圖示例

seo,關鍵詞,搜索流量

但是記住,不要為了分組而分組,沒有明顯相關性的詞項不應該被分到一組,否則那是在給自己找麻煩

8. 問題篩選

8.1 數據篩選

現在我們可以從可獲取流量最多的類別中選取一個詞項,在我們完成【6-7】后的關鍵詞文件里,使用Bash shell 或者 在Excel-csv里搜索“關鍵詞列”,找出包含這個詞項的關鍵詞,然后用指標來篩選,下面給出幾個篩選數值僅做參考

問題瀏覽量(輔助)

問題關注量(輔助)

問題創建時間(輔助)

回答數量 <=50

第1名贊數量 <= 100

第1名回答字數 <= 800

第1名回答時間 (輔助)

可獲取流量 >= 100

說一個場景,經過硬性指標篩選后,如果一個問題頁面的瀏覽量遠低于可獲取流量,關注量少,問題創建時間為最近,第一名回答時間為最近,那么這類問題需要重點mark一下

但是why?朋友們不妨自己思考一下

好啦我來告訴你,每一類人群的數量是有限的,如果把上面的條件反回來,那么很可能你已經miss掉一部分流量,所以我們要有搶占先機的意識

篩選完成后,可按照【可獲取流量】或【第1回答贊同數量】等條件降序排序,藍海問題一目了然

8.2 人工篩選

人工主要來解決數據判斷不了的內容問題,即第1名的回答是否未滿足問題需求,主要找以下2種類型:

1)直接滿足,但用戶的隱含需求未被滿足,存在擴展空間

舉例

Q:“汽車多久保養一次”

A:“我一般一季度保養一次”

A(new):“不同品牌的汽車保養時間不同,我下面列出所有品牌xxx,保養項目xxx,機油選擇xxx,保養什么坑xxx”

2)間接滿足

正好翻到一個,上圖

?seo,關鍵詞,搜索流量

回答說明了按鍵精靈,但并沒有給出這個腳本怎么寫

相信到了這里,你已經找到了N個類別的N個問題,然后馬上開始分析問題 > 列大綱 > xxxx…..

Stop!請立刻停止你的上頭行為,我們還有最后一步

9. 流量跟蹤

萬里長征最后一步,非常重要,非常重要,非常重要

我們前面提到2點:

在百度推廣后臺-關鍵詞規劃師中,流量的數據口徑是月,并且是預估值

SEO的網頁排名是動態的

這就可能造成結果的不穩定性,辛辛苦苦做了數據,寫了回答,搞了排名,結果卻沒有閱讀量?

所以我們要監控頁面的瀏覽量是怎樣增長的,來確定這個頁面是否真的獲取了流量,能獲取多少流量,最終判斷要不要回答這些問題

監控時間單位可以是天,細致點可以每N個小時,監控時長大家自己判斷,當然越長越準確

舉個例子,假設某個問題的可獲取流量為15W,那么平均每天的可獲取流量為5000左右,那么3天(不考慮節假日)的可獲取流量為1.5W

記錄該頁面的瀏覽量并且對比,只要上下浮動不是特別大,那么就可以列入我們的回答清單

10.最后

我們將視角提升到整個營銷的層面,會發現藍海流量獲取是整個營銷環節的第一步,其他部分諸如回答排名 & 流量路徑 & 變現等

還有很多方法技巧類能幫助我們更好的利用藍海流量,比如數據交叉計算,進階玩法等

但是要將上面說的展開,又是很大一部分內容,受時間和精力所限,我們下次再講

 

作者:CashWar

來源:TACE

 

本文來自投稿,不代表青瓜傳媒立場,如若轉載,請注明出處:http://www.9808736.buzz/222184.html

聯系我們
公眾號
国标麻将番型 福彩3d走势图 老k棋牌作弊器是真的吗 江苏七位数下期预测 青海快三一定牛 南京麻将50园子微信群 赖子山庄游戏中心手机 北京麻将有没有作弊器有 pc蛋蛋幸运28稳赚不赔技巧 买十一运夺金赢利技巧 爵士vs热火视频直播 南京打的什么麻将 打广西麻将技巧 百赢棋牌新版本 买双色球彩票有技巧和窍门 河北快3三开奖结果 陕西十一选五任二遗漏一定牛