自媒體管理系統 4.1 章 - 靈感採集:從此不再煩惱要發什麼內容

自媒體管理系統 4.1 章 - 靈感採集:從此不再煩惱要發什麼內容

解決創作小白「大腦空白」的痛點,透過 n8n 與 AI 自動化打造一套 24 小時運作的靈感收集與草稿生成系統。

📋 文章目錄

⚡ 靈感採集系統快速攻略

  • 自動化輸入:利用 TTRSS 與 Apify 24 小時監測 Threads, IG, YouTube 爆紅內容。
  • 效能導向:專注於 High Performance 貼文(高於平均值 3 倍以上),借力權威內化觀點。
  • AI 草稿化:一鍵觸發 n8n 工作流,5 分鐘內將素材轉化為具備個人風格的初稿。

前情提提要

很多人問我,你是怎麼維持每天都有內容產出的?其實秘訣只有一個:持續的輸入

在輸入(讀文章、看影片、滑 Threads)的當下,大腦就會自然產生自己的想法。其實每個人每天都會思考很多事情,只是當下我們沒有立馬記錄下來,之後很快就會忘掉。

這套系統強大的地方就在於:它能夠刺激我思考,並在我產生想法的瞬間,透過 AI 自動化流程直接把它轉化成草稿。

我的核心策略:借力權威,內化觀點

作為一個追蹤者(Follower)還不多的新手,我們講的話往往缺乏說服力。所以我選擇的方式是:**借用權威人士的內容,再加上自己的觀點。**這不僅讓內容看起來更有權威感,也降低了創作的門檻。


技術架構:7 個關鍵的 n8n 工作流

為了實現 24 小時不間斷的靈感收集,我設計了 7 個核心的 n8n 工作流:

  1. Feeds (Newspapper)
  2. Feeds (Instagram)
  3. Feeds (Threads)
  4. Feeds (Twitter)
  5. Feeds (YouTube)
  6. Content Agent
  7. Copy Drafter

這些工作流從各大平台抓取內容,並由 AI 進行分析處理。


小應用程式工具箱

要讓這套「靈感收割機」轉起來,我們需要以下專業工具:

📡
內容集散地

TTRSS + RSS-HUB

部署在 Zeabur,將各大平台(YouTube, Threads, X)內容標準化為 RSS 來源。

🕷️
深度數據採集

Apify

用於抓取 IG Reels、YouTube 逐字稿與互動數據(Likes, Views)。

🎙️
影音轉文字

Whisper

OpenAI 語音模型,將 IG 影片音檔翻譯成高準確度的文字素材。

🌐
防抓取渲染

Browserless

模擬瀏覽器行為,處理部分具有防爬機制的技術新聞或新聞網站。


把資訊流整合到 Notion:一覽無遺

採集到的內容會經過 AI 自動分析、打標籤,並按照數據表現(Performance)排列在我的 Notion 管理中。

Step 1:AI 自動分類與打標籤

採集到的內容會先經過 AI 分析總結、加上 TAG 等等,自動更新到我的 Notion 資料庫。

Step 2:Performance 導向的閱讀策略

我每天打開 Notion,會優先看 Performance 數據比較好的內容。例如:圖片中這支影片是高於該創作者平均 Views 數 3 倍有多,那它絕對有值得學習的 Hook 或內容邏輯。

high performance post

Step 3:一鍵啟動 AI Agent 生成草稿

  1. 在 Notion 的 Type 欄位選擇我安排好的 AI Agent 風格 Skill
  2. 我會把自己一些想法寫在 Ideas 欄位(可以不寫)。
  3. Read 欄位打勾。
  4. 5 分鐘左右,系統就會自動幫我寫成草稿,並轉移到 #Content

AI Agent Skill 與 模型設定

這套系統的 AI Agent 風格設定。這些 Skill 我都部署在 Zeabur 上。

使用的 AI 模型推薦

我目前使用的是 Open Router 上的模型,成本極低且穩定:

  • 草稿生成:推薦使用 nvidia/nemotron-3-super-120b-a12b:free
  • RSS 分析與過濾:在使用免費的 Step 3.5 Flash (free)Arcee AI: Trinity Large Preview (free)
    • 在 Open Router 只要儲值 10 美元,這些免費模型每個月可以打 100 萬次 Request,幾乎等於免費使用。

全手動搭建指南

這套系統雖然強大,但初始設定需要一點耐心。以下我將拆解各個組件的安裝與連結方式。

1. 準備工作:下載資源與 Notion 資料庫設定

這是整個系統的地基,請按照步驟將所需資源準備好。

  • 下載 7 個核心工作流:請至 charlsondou 產品頁面 下載這套系統的 7 個 n8n 工作流 Json 檔。
  • Notion 範例資料庫
    • 匯入我的 一人公司經營系統 (Template) 範例資料庫到你的 Notion workspace。
    • ⚠️ 關鍵步驟:匯入後,#Feeds#Author 範例資料庫請務必點擊右上角的 ... 選單 -> Add connections,重新連結你之前在 Notion 開發者後台申請的 Integration (API)。
    • 至於草稿生成的去向 #Content Database,你可以把我們在「多平台發文系統」那章建立的同一張資料庫的內容轉移到這裡的 #Content (Template)。

2. Tiny Tiny RSS (TTRSS) + RSS-HUB (Zeabur 快速部署)

這兩個工具是系統的「內容集散地」。好消息是,它們都可以在 Zeabur(這是聯盟行銷 + 輸入我的優惠碼 charlsondou 享有額外優惠)上一鍵快速部署。

第一步:部署 RSS-HUB

  1. 在 Zeabur 搜尋 「RSSHub」 並點擊安裝。
  2. 安裝完成後,你會看到兩個服務:RedisRSSHub
  3. 進入 RSSHub 服務,在 Networking 標籤頁下方點擊 Generate Domain,自訂一個你的專屬網址。
  4. Radar 助手:在 Chrome 瀏覽器安裝 RSSHub Radar 擴充功能,並在 General 設定中填入你剛剛產生的系統網址。以後只要網頁有 RSS 來源,Radar 就會自動偵測。

rss hub domain

第二步:部署 Tiny Tiny RSS (TTRSS)

  1. 同樣在 Zeabur 搜尋 「TinyTinyRSS」 並安裝。
  2. 安裝後同樣在 Networking 產生一個 Domain,等綁定成功後點擊網址進入 TTRSS 頁面。
  3. 初次登入:預設帳號為 admin,密碼為 password。進去後請立刻到右上角 偏好設定 -> 使用者 更改密碼或建立新帳號。

第三步:訂閱與管理 (OPML 匯入)

  1. 匯入範例:到 偏好設定 -> 摘要 -> OPML 匯入我提供給你的 OPML 檔案。匯入後,左側會出現預設的分類與訂閱源。(內含我的訂閱源分享給你)
  2. 新增與刪除
    • 刪除:在訂閱源點右鍵 -> 編輯摘要 -> 取消訂閱。
    • 你可以在每個訂閱源上右鍵 → 編輯摘要 → 參考該連結去新增你需要的帳號
    • 新增 (以 YouTube 為例):YouTube 的連結格式通常為 `https://{你的rss hub domain}/youtube/user/@{username}`
    • 點擊右上角三條橫線 -> 訂閱摘要,貼上網址並選擇對應分類(如:YouTube)即可完成訂閱。
  3. 下載 OPML 檔案

3. 各核心工作流設定解析

這套系統包含多個不同平台的工作流,我將逐一拆解它們的設定細節。

💡 節點顏色圖例說明:
🟢 需要你手動改動/輸入參數的節點
🔴 系統已經寫好,不需要去動它的節點

3.1 Feeds (Instagram)

這工作流內包含兩條自動化流程:

流程一:每日抓取最新 Reels

這條流程由名為 Instagram-Tools 的 Scheduled Trigger 觸發,設定為每天只執行一次。

  1. Setting 🟢:請在此節點設定 reels_results_limitonly_posts_newer_than 參數。

    • reels_results_limit:我預設為 3,代表每天從各帳號抓取最近的 3 支 Reels。如果對方當天發布了 4 支,則只會抓取最新的 3 支。
    • only_posts_newer_than:我預設為 1 day,只抓取過去 24 小時內的新影片(你也可以根據需求調整為更長的時間)。
  2. Get Data (Author) 🔴:到 Notion 的 #Author 資料庫中,找出我登記的創作者。(這個節點只需要確認有正確指向 Notion 的 #Author Database 即可)

    • 設定要件:在 Notion 中,只需確保 Platform 欄位為 Instagram,且 Link 欄位貼上他們 IG 主頁的連結(注意:最後不要有斜線 /)。第一次執行成功後,其他欄位 n8n 會自動補齊。
  3. Aggregate & Build Json 🔴:將取出的 IG 連結聚合成一包,並轉換為適合 Apify 接收的格式。

  4. Instagram Scraper 🔴:呼叫 Apify 爬取這些帳號在過去 24 小時內發佈的 Reels。

    • 設定 API Key:前往 Apify(這是聯盟行銷連結)→ Console -> Settings -> API & Integrations -> Create a new token。回到 n8n,在該節點新增 Credential 並貼上 Token,其他設定保持預設即可。
    • 費用提醒:Apify 每月有 5 美元的免費額度。此 InstagramScraperActor 的計費方式約為 2.7 美元 / 1000 筆結果。

    apify api key

  5. No Post? In Pinned? 🔴:過濾機制,把帳號的「置頂影片」排除掉,避免重複抓取舊資料。

  6. Loop Over Items & Download 🔴:將抓到的影片清單一一拆解,並實際下載影片檔案。

  7. Whisper 🔴:將下載的影片聲音轉換成文字。

    • 設定 API Key:你需要去 OpenAI 申請 API Key。在該節點的 Header Auth 新增 Credential,Name 設為 AuthorizationValue 設為 `Bearer {你的 OPENAI API KEY}`
  8. Basic LLM Chain (AI Agent)🔴:利用 AI 分析逐字稿,輸出 TitleSummaryCategory

    • 這裡同樣使用 OpenRouter 的免費模型(如 StepFun: Step 3.5 FlashArcee AI: Trinity)。
    • 設定 API Key:在 OpenRouter Chat Model 節點新增一個 Credential 填入 OpenRouter API Key。推薦使用免費的 StepFun: Step 3.5 FlashArcee AI: Trinity Large Preview

    open router api key

  9. Chunk Caption & Chunk Block 🔴:檢查 AI 輸出的 Summary 或原文是否超過 2000 字(Notion 單一 Block 的上限)。若超過,會自動切段處理。

  10. Notion 資料庫聯動邏輯

    • Get Author ID 🔴:檢查 Notion 是否已存在該作者連結,決定後續動作。
    • Add Page (Feeds) 🔴:若作者已存在,直接把新影片內容存入 #Feeds
    • Create ID (Author) / Create Page (Feeds) 🔴:若作者不存在(通常不會發生,因為這是手動建的),會先建立 Author 再建立 Feeds。
    • Update (Author) 🔴:最後,將這篇新建的 Feed 關聯回該 Author 頁面,為未來的創作者數據分析做準備。

流程二:Instagram CLV Counter (歷史數據更新)

這是一條輔助流程,同樣每天執行一次。

  • 功能:它會專門回溯過去 2 天 的 Reels,重新抓取並更新 Likes, Views, Comments 等互動數據。
  • 目的:社群內容發佈後 48 小時內數據變化較為準確,這更新能讓我們更準確地分析該創作者的內容成效。

💡 小撇步:如果你想回溯更久以前的數據,只需在 Get Data (Feeds)1 節點中,將 Date 欄位的 On Or After 設為:{{ $now.minus({ days: 2 }).toISO() }},並將其中的 2 改為 3、10 或 20 等天數即可。但請注意,回溯天數越多,Apify 的爬取費用也會隨之增加。

3.2 Feeds (Newspapper)

這是抓取 RSS 新聞核心的邏輯:

  • Business RSS 🔴:這是一個 Scheduled Trigger,設定為每 15 分鐘檢查一次 TTRSS 是否有更新。
  • Setting 🟢:請在此節點輸入以下必要資訊:
    • ttrss_login_username = `{你的 ttrss 帳號名}`
    • ttrss_login_password = `{你的 ttrss 密碼}`
    • ttrss_endpoint_url = `https://{你的 ttrss domain}/api/`
    • ttrss_feed_id = `{該分類 ID}`(💡 如何拿分類 ID:先輸入好帳號密碼與 Endpoint 後手動執行一次,在後面 Session ID 節點的 Output data 中,每個標題上方就會顯示該分類的 ID。)
    • browserless_endpoint_url = `https://{你的 domain}/scrape`
    • browserless_token = `{輸入 Zeabur Overview 顯示的 Token}`
  1. Login 🔴:登入你的 TTRSS 系統,此節點不需要修改。
  2. Session ID 🔴:取得暫存憑證,其 Output data 中在每個標題上方會顯示該分類的 ID。
  3. Get Headlines 🔴:利用剛剛取得的 Session 抓取未讀文章。
  4. Split Out & Loop Over Items 🔴:將抓到的一大包資料拆分,並一個一個往下傳送。
  5. Get Article 🔴:抓出單一 RSS 節點的文章全文內容。
  6. Use Browserless? 🔴 (條件判斷):有些網站 TTRSS 抓不到資料,我在這裡設定了 Regex 比對 `{我需要用 Browserless 的網站名}`(例如 CNET、Young Upstarts 等)。如果你新增了抓不到資料的來源,請更新這個節點的 Conditions。
    • Yes (需要 Browserless) -> Get Article2 🔴:向你的 Browserless 伺服器發送請求。*(如果你還沒安裝,同樣可以在 Zeabur 快速部署 Browserless,在 Zeabyr 搜尋 Browserless 並點擊快速部署即可,完成後在 Networking 綁定 Domain,然後在 n8n 的 Setting 節點的 browserless_endpoint_url 中填入 `https://{你的 domain}/scrape`。),browserless_token 剛是 Zeabur 該 Browserless 專案 Overview 裡面看到的 Token。)*如果不成功,則進入 Get Article2 🔴 將該文章標示為已讀,跳過處理。
    • No (直接成功) -> To Markdown 🔴:將 HTML 轉為 Markdown,讓 AI 更容易閱讀。
  7. Information Extractor 🔴 (AI Agent):重點節點!負責產出 1. 總結2. 標題3. 分類
    • 設定 API Key:在 OpenRouter Chat Model 節點新增一個 Credential 填入 OpenRouter API Key。推薦使用免費的 StepFun: Step 3.5 FlashArcee AI: Trinity Large Preview
  8. Update Article 🔴:完成讀取後,回到 TTRSS 將該文標記為已讀。
  9. Json Success? 🔴:防呆機制,檢查 AI 是否成功產出。
  10. Chunk Caption & Chunk Block 🔴:若 AI 總結或原文超過 2000 字(Notion 單一 Block 上限),自動切段。
  11. Create Feeds 🔴:最終摘要建立到 Notion 的 #Feeds(這個節點只需要確認有正確指向 #Feeds Database 即可)。

3.3 Feeds (YouTube, Threads, Twitter)

這三個平台的工作流與 IG 最大的不同在於:它們是透過 TTRSS 作為中繼站的。因為 TTRSS 本身具備「過濾已讀訊息」的功能,所以就算 Scheduled Trigger 設定為每 1 小時抓取一次,也絕對不會重複抓到同一篇內容。

以下我們以 Feeds (YouTube) 為例來拆解:

  • Scheduled Trigger 🔴:設定為每小時執行一次。
  • Setting 🟢:請在此節點輸入以下必要資訊:
    • ttrss_login_username = `{你的 ttrss 帳號名}`
    • ttrss_login_password = `{你的 ttrss 密碼}`
    • ttrss_endpoint_url = `https://{你的 ttrss domain}/api/`
    • ttrss_feed_id = `{該分類 id}`(💡 如何拿分類 ID:先輸入好帳號密碼與 Endpoint 後手動執行一次,在 Session ID 節點的 Output data 中,每個標題上方就會顯示該分類的 ID。)
    • email = `{你的 email}`
  1. Login 🔴:登入你的 TTRSS 系統。
  2. Session ID 🔴:取得暫存憑證,其 Output data 中在每個標題上方會顯示該分類的 ID。
  3. Get Headlines 🔴:利用剛剛取得的 Session 抓取未讀文章。
  4. Split Out & Loop Over Items 🔴:將抓到的一大包資料拆分,並一個一個往下傳送。
  5. Get Article 🔴:抓出單一 RSS 節點的文章全文內容。
  6. Get Video CLV 🔴:這是一個 Google HTTP Request 節點,用來抓取影片的 Likes、Views、Comments 等互動數據。
    • 注意:這裡不需要使用付費的 Apify,因為 YouTube 官方就有提供 API。你只需要設定好 OAuth2 API 即可(詳細教學可參考:Google OAuth 憑證申請指南)。
  7. Switch 🔴:過濾機制。有些創作者會發布僅限「頻道會員」觀看的優先影片,這個節點會把這些一般人還看不到的影片擋下來。
  8. Youtube Transcript 🔴:利用 Apify Actor 抓取這部 YouTube 影片的 CC 字幕(這組 Actor 的計費方式約為 $10 美元 / 1000 筆結果)。
  9. Empty Content? 🔴 (條件判斷):檢查有沒有成功抓到字幕。
    • True (抓不到字幕 / Apify 出錯) -> 進入 Send a message 🔴 節點:透過 Gmail 發送錯誤通知給我們自己提醒我們 Apify 可能出錯了。接著進入 Update Article 🔴 提早將該 RSS 標記為已讀,避免 n8n 無限迴圈重試。
    • False (成功抓取) -> 順利進入 To Markdown 🔴 節點,將內容轉換成 AI 好讀的格式。
  10. 後半段處理:接下來的 Basic LLM Chain (呼叫 Open Router 產出標題、總結、分類)、Chunk CaptionChunk Block,一直到寫入 Notion 資料庫的驗證(Get Author IDAdd Page 等),整套邏輯與 IG 工作流一模一樣。

流程二:Youtube CLV Counter (歷史數據更新)

這是一條輔助流程,同樣每天執行一次。

  • 功能:它會專門回溯過去 2 天 的影片,重新抓取並更新 Likes, Views, Comments 等互動數據。
  • 目的:社群內容發布後 48 小時內數據變化最大,持續追蹤能讓我們更準確地分析該創作者的內容成效。

💡 小撇步:如果你想回溯更久以前的數據,只需在 Get Data (Feeds) 節點中,將 Date 欄位的 On Or After 設為:{{ $now.minus({ days: 2 }).toISO() }},並將其中的 2 改為 3、10 或 20 等天數即可。但請注意,回溯天數越多,Apify 的爬取費用也會隨之增加。

注要事項

新增追蹤對象的邏輯差異:

  • Instagram:由於 IG RSS 極不穩定,若要追蹤新帳號,請直接到 Notion 的 #Author 資料庫中新增資料(填寫 Link 與 Platform)。
  • YouTube、Twitter (X)、Threads:這三者我們是透過 TTRSS 穩定管理的,若要追蹤新帳號,你必須在 TTRSS 網頁端新增訂閱源,千萬不要跑到 Notion 裡去加。

3.4 Content Agent (觸發 AI 寫手 & Zeabur 部署邏輯)

這支工作流負責將你過濾並挑選好的素材送到 AI 面前。

  1. Scheduled Trigger:設定為每 5 分鐘執行一次。它會去掃描 Notion 的 #Feeds 資料庫。
    • 觸發條件:當你把一篇文章的 Read 打勾、Type 選擇了想要的 AI Agent 風格、且 StatusNot Started 時,這筆資料才會被抓出來。
  2. Loop Over Items -> Get Child Blocks -> Aggregate:一筆一筆將原本的圖文內容抓出並合併。
  3. Send to Content-Agent (核心 API 呼叫):將合併好的資料,打 API 到你部署在 Zeabur 上的 Content Agent 專案 (`https://{你的 content agent 專案 domain}/api/generate`)。

Note

部署 Content Agent 到 Zeabur 步驟:

  1. 前往 GitHub 下載我的 Content Agent 專案 到你的電腦下。

  2. 路徑 Content-Agent/author_dna 裡,把 Notion #Content 發佈過的貼文匯出成 csv 檔案放進來。

  3. 放上你的 Github 帳號。

  4. Zeabur 綁定你的 GitHub,並選擇這個剛放好的專案進行部署。建立完成後,在 Networking 分頁產生一組 Domain。

  5. 設定環境變數:進入 Zeabur 專案 -> Variable -> Edit Raw Variables,填入以下資訊:

    • OPENROUTER_API_KEY= `{你的_OpenRouter_API_KEY}`
    • OPENROUTER_MODEL= `{你的_OpenRouter_Model}` (我最近是用 nvidia/nemotron-3-super-120b-a12b:free)
    • RETURN_WEBHOOK_URL= `https://{你的_n8n_domain}/webhook/copy-drafter` (這是稍後 Copy Drafter 工作流的 Webhook 網址)
    • PORT=3000

    content agent variable

💡 作者理念分享:為什麼我不做「全自動」發佈?
系統會根據你 Type 所選的 Agent Skills (Prompt) 來生成草稿。但我一再重申:AI 的作用是「協助」

就算今天 AI 寫出來的貼文「毫無 AI 味」,我依然不會直接發佈。因為太過依賴 AI 會極快地降低我們自身的表達能力與思考深度。我不希望自己變成一個在網路上侃侃而談,線下見面卻毫無靈魂的人。除非我在做的是「矩陣帳號」(帳號人設不代表我本人),才會 100% 全自動化。

3.5 Copy Drafter (自動建立草稿)

這支工作流負責接收 Zeabur 上 AI 寫手產出的文章,並寫回 Notion。

  1. Webhook 節點:這是觸發點,負責接收 Content Agent 處理完畢打回來的資料。
    • 路徑設定:預設 Path 是 copy-drafter。這就是前面 Zeabur RETURN_WEBHOOK_URL 填寫的目標網址 (記得是 Production URL)。
    • 收到的 body 會包含 `{notion_id}` 以及生成的 `{results}` 草稿等資訊。
  2. Get Data (Feed) -> Get Child Blocks -> Aggregate:利用傳回來的 notion_id,去 Notion #Feeds 找回當初的那篇素材原文,並將原文擷取合併。
  3. Chunk Block 節點:為符合 Notion API 單一區塊字數限制,將長篇草稿切段。
  4. Create Content 節點:最後,在我們的 #Content 資料庫(也就是我們多平台發文系統共用的那張核心資料庫)中,自動建立一筆新的草稿。
    • 我預設勾選了發布到四個平台:["Threads", "Facebook", "LinkedIn", "Discord"]。你可以在這個節點的 Platform 欄位依據個人需求自行更改。

總結

這套自媒體管理系統 4.1 章的設計初衷,是為了讓創作者從瑣碎的「找素材」中解脫出來。
不再需要每天對著空白螢幕發愁,而是讓整個互聯網成為你的墨水瓶。

記住:保持輸入,保持思考,剩下的交給自動化。

自動化社群

如果你在嘗試搭建的過程中遇到問題,
歡迎加入我的 Discord 社群找我。

立即加入自動化討論群組

付費會員會有一個專屬的私人頻道,你可以在那裡直接告訴我你在自動化過程中遇到的痛點。
如果這是一個大家都有的需求,我會親自開發解決方案,並把它整合進系統裡

讓我們一起把它變得更強大。

💡 常見問題 Q&A

Q:Apify 的費用如何計算?

A:Apify 每月提供 5 美元的免費額度。使用 Instagram Scraper 抓取時,每 1,000 條結果約耗費 2.7 美元;YouTube Transcript 約為每 1,000 筆 10 美元。

Q:為什麼要用 TTRSS 而不直接用 n8n 抓取?

A:TTRSS 具備強大的「過濾已讀」功能,能有效避免 n8n 重複處理相同的內容。透過 TTRSS 作為中繼,可以大幅節省 n8n 的運算次數與資源。

Q:Open Router 的模型推薦哪一個?

A:最近推薦使用 nvidia/nemotron-3-super-120b-a12b:free,它在處理繁體中文草稿時表現優異。分析 RSS 則可選用免費的 Step 3.5 Flash 或 Arcee AI。