事業を「因果」で動かし
AI広告OSで利益に直結させる。

D professions’ AI®︎のAI広告運用事業「AI広告」は、「AIを前提にした」集客の仕組みをつくる取り組みです。
AI広告のコアは、(1)因果効果推定(uplift/CATE)、(2)制約付き強化学習による入札・予算配分、(3)生成AIを用いたクリエイティブ最適化、(4)MMM×MTAのハイブリッド測定、(5)プライバシー保護と安全性のガードレールの5本柱です。
AI前提の広告オペレーティング・システム
目的関数は「因果的な収益最大化」。クリック率ではなく、「広告が無かった世界との差分(因果リフト)」で意思決定します。
システムは以下の2ループで動きます。
オフライン学習ループ
データ収集 → 特徴量生成 → 因果モデル/価値モデル学習 → 方策(ポリシー)更新
オンライン制御ループ
入札・配信 → 計測(実験/反実仮想評価)→ ドリフト監視 → ガードレール制御
データはリアルタイム・ストリーミング基盤と特徴量ストア(オンライン/オフライン一致)で管理し、実験プラットフォーム(AB/スイッチバック/地理分割)で常時検証します。
データと信号設計
Measurement-first
イベント・オントロジー(impression, viewable, click, visit, add-to-cart, lead, purchase…)を同一スキーマで定義。IDはプライバシー保護ID(ハッシュ化/クリーンルーム/Federated)で連結し、データ契約(遅延・揺らぎ・品質SLA)を明文化します。
特徴量は4層に分けます。
- ユーザー文脈(デバイス、ロケーション、時刻、セッション/過去行動要約)
- クリエイティブ特徴(テキスト・画像・動画の埋め込み、属性タグ)
- 在庫文脈(媒体、枠、ページ/アプリコンテキスト、オークション指標)
- 事業側文脈(利益率、在庫状況、LTV予測、季節性)
①因果効果推定
(Uplift/CATE)
広告は介入です。\(T\in{0,1}\)(配信/非配信)、特徴量\(X \)、アウトカム\(Y \)(購入や収益)。
平均処置効果
$$\text{ATE}=\mathbb{E}[Y(1)-Y(0)]$$
条件付き効果
$$\tau(x)=\mathbb{E}[Y(1)-Y(0)\mid X=x]$$(CATE)
実装はメタラーナ(T-/S-/X-/R-/DR-learner)や因果フォレスト, DragonNet等。
偏り補正に傾向スコア$$e(x)=P(T=1\mid X=x)$$と二重ロバスト推定を用います。
二重ロバスト推定量(例)
$$\hat{\tau}_{\mathrm{DR}}(x)=\hat{\mu}_1(x)-\hat{\mu}_0(x)+\frac{T(Y-\hat{\mu}_1(x))}{\hat{e}(x)}-\frac{(1-T)(Y-\hat{\mu}_0(x))}{1-\hat{e}(x)}$$
ここから方策学習へ
コスト\(c(x)\)、マージン価値\(v(x)\)(例:期待粗利やLTV)を使って因果ROIを最大化。
提案指標
CVPM(Causal Value per Mille)
$$\mathrm{CVPM}(x)=1000\cdot\frac{v(x)\cdot\tau(x)}{\text{CPM}(x)}$$
配信は\(\mathrm{CVPM}\)が閾値を超える集合に集中させます(予算制約下でのナップサック緩和問題)。
②制約付き強化学習
(入札・配分・ペーシング)
日次・週次の予算制約と、入札/在庫/学習探索のトレードオフをMDPで最適化。
状態 \(s_t\)
残予算、時刻、学習不確実性、需要シグナル
行動 \(a_t\)
入札係数、入札上限、配信比率、探索率
報酬 \(r_t\)
\(v(x)\cdot \tau(x)\) に基づく因果価値(安全マージン付き)
制約
\(\sum_t \text{Spend}(a_t)\le B\)、ブランド安全性/頻度上限/CPA上限 等
ラグランジュ緩和で制約付き最適化
$$\max_\pi \mathbb{E}_\pi!\left[\sum_t r_t – \lambda\cdot \text{Spend}_t\right]$$
\(\lambda \)はデュアル変数としてオンライン更新(Primal-Dual)。実装はActor-Critic+Conservative Q-Learning(過大評価防止)やPessimistic OPEで安全探索。
オフポリシー評価(OPE)にはIPS/DR/DMの組合せ(Doubly Robust, Switch Estimators)。信頼下界(PAC-Bayes/エンベロープ不等式)で安全係数を設け、配信のやりすぎを防ぎます。
③生成AI×ベイズ最適化によるクリエイティブ最適化
LLM/生成画像・動画モデルで属性コントロール可能なバリアントを生成。例:{訴求軸, コピー調, ビジュアル構図, 行動喚起, 長さ}の多次元空間。
階層ベイズでCTR/CVRの事前分布を「属性→成果」の構造化回帰に埋め込み、トンプソンサンプリングまたはガウス過程BOで探索・搾取をバランス。
クリエイティブ埋め込み \(z\) に対し \(p(\theta \mid \mathrm{D})\)を更新
次の案は \(\arg\max_{z}\ \mathbb{E}_{\theta}[ \text{Value}(z;\theta)]\)
ブランド安全性/法令遵守は制約付きBO(ペナルティ項 or 事前フィルタ)
提案
Creative Genome Graph
クリエイティブ属性をDAGで表現し、因果介入(例:CTAだけ変更)による部分効果を推定。生成は属性制約付きプロンプトに限定、評価は因果的A/Bで再学習へ。
④MMM×MTAハイブリッド
(マクロ×ミクロの整合)
MMM(Media Mix Modeling)でチャネル別の飽和・遅効(Adstock)を時系列推定、MTA(マルチタッチアトリビューション)でユーザー経路の微視的貢献を推定し、ベイズ的整合で融合します。
MMM(例)
$$y_t = \alpha + \sum_j f_j!\big(\text{Adstock}_j(t)\big) + \delta^\top z_t + \varepsilon_t$$
$$\text{Adstock}j(t)=\sum{k=0}^{\infty}\omega_j^k \cdot \text{Spend}_j(t-k)$$
\(f_j \)はHill関数(飽和)やスプライン。状態空間(カルマン)で季節性やショックにも追従。
MTAは構造因果モデル(SCM)で経路・媒介(例:直訪問)を明示。Shapley値は計算量が重いのでサンプリングShapleyやパス制約Shapleyを使用。
融合は、MMMのマージン制約(総効果整合)をMTAに与えて識別性を改善(Calibrated MTA)。
⑤LTVとゴール設計
短期コンバージョンではなくLTV最大化へ。
顧客価値
$$V = \mathbb{E}\left[\sum_{t\ge 0}\gamma^t R_t\right]$$(割引\(\gamma \))
サバイバル分析(Cox/離散時間)やBG/NBD、階層ベイズでセグメント別LTVを推定。
報酬設計は
$$r = \tau(x)\cdot \text{margin-LTV}(x)$$
としてRLに接続。
安全性・プライバシー・規制適合
差分プライバシー(予算\(\epsilon \)管理)、Federated学習、クリーンルームでデータ連携
ブランド/法令ガードレール
LLM判定器+規則ベースの二重承認。RLにはクリティック(制約違反罰)を導入
頻度上限/露出上限はハード制約としてペナルティ化
監査ログとモデルカードで透明性を担保
オークションと入札
実務上のロバスト戦略
プラットフォーム仕様(一次/二次価格等)が変動しても、価値ベース入札は普遍
(1)予測価値
$$\hat{v}(x)=\text{LTV}(x)\cdot \tau(x)$$
(2)ロバスト入札
\(b(x)=k\cdot \hat{v}(x)\)、\(k\)はデュアル変数(予算/CPA上限からオンライン更新)
(3)品質調整・在庫混雑を補正項で吸収(例:勝率\(\hat{p}_{win}(b)\)由来の期待費用制御)
価値ベース入札は仕様変更に強い
一次価格なのか二次価格なのか、あるいはプラットフォームの入札ロジックが微修正されたのかに関わらず、意思決定の核を「価値」に置けば戦略はブレません。
ここでいう価値とは、ユーザー接点 \(x\) における将来価値の期待値であり、
$$\hat{v}(x)=\mathrm{LTV}(x)\cdot \tau(x)$$
と定義します。前者は顧客生涯価値、後者は配信による因果効果(CATE)です。
クリックや直後のCVに引っ張られず、「その接点に出稿したからこそ増えた価値」だけを買いにいく設計にすると、オークション仕様の変化があっても目的関数は不変で、方針の整合性が保てます。
制約と市場条件を織り込むロバスト化
実際の入札は、この期待価値に比例させるのが基本で、
$$b(x)=k\cdot \hat{v}(x)\,$$
の形に落ち着きます。
比例係数 \(k\) は日次の予算やCPA上限から導かれるデュアル変数で、消化状況や目標乖離を見ながらオンライン更新するのが実務的です。
さらに媒体品質や在庫混雑度は補正項で吸収します。たとえば勝率 \(\hat{p}_{win}(b)\)を用いて期待費用や期待露出を制御すれば、表面的な入札単価ではなく「勝ち筋」と「支払い」の期待値を同時に整えられます。
こうして価値、制約、市場の三層を一つの式に束ねることで、変化耐性のある入札が実装できます。
実験設計と反実仮想評価
(1)スイッチバック実験(時間スロットでトリート/コントロール切替)
(2)ジオ実験(地理単位でuplift推定)
(3)メタラーナ×ABでポリシー学習のA/Bを安全に実施
(4)OPEはIPS/DR/DMをアンサンブル、悲観的リスク(下側CVaR)をモニタし、自動ロールバックを準備
オンラインで因果性を担保する設計
配信の正しさは、実験計画で担保します。時間スロットを交互に切り替えて介入と対照を作るスイッチバック実験は、在庫や需要の短期的ゆらぎを均すのに有効です。
加えて地理単位で配信を変えるジオ実験を組み合わせれば、外部要因の影響を平準化しながらupliftを推定できます。
学習済みのメタラーナによるセグメント最適化をA/Bで比較する際も、ポリシー全体の安全性を優先し、露出や頻度の上限を設けたうえで段階的に適用範囲を広げるのが肝要です。
オフポリシー評価と安全機構
新しい方策を全面適用する前には、履歴ログからのオフポリシー評価でリスクを見積もります。逆傾向スコア重み付け(IPS)、モデル推定(DM)、二重ロバスト(DR)をアンサンブルし、推定の頑健性を確かめたうえで、下側のリスクを示すCVaRを継続監視します。
悲観的なリスクが閾値を超えた場合は自動ロールバックを発動し、直前の安定方策に戻すことで探索の失敗を素早く封じ込めます。安全網を先に用意することが、実験速度とブランド保全を両立させる近道です。
システム設計
(MLOps/AdOps)
100ミリ秒以内で意思決定する経路
広告は瞬発力の競技です。オンライン推論はおおむね100ミリ秒以内で完結させ、特徴量ストアから文脈を読み出し、CATEやLTVの推論を経て入札を生成します。
遅延が蓄積すると競合オークションで不利になるだけでなく、学習データの鮮度も損なわれます。パス全体の遅延を監視し、ボトルネックが発生した際には近似モデルへのフォールバックや特徴量の簡約化で即時に回避します。
リアルタイム推論(<100ms)
特徴量ストア→推論→入札
モデル連携と監視・実験の作法
モデルは「CATEの推定」から「価値の積み上げ」、「入札器の生成」、「予算ペーサー(Primal–Dual)」へと直列に連携します。
運用面では、データドリフトや分布外入力、さらには因果効果の滑落を常時監視し、異常が見つかればゲート付きデプロイでユニット単位に切り戻せるようにしておきます。クリエイティブ、入札、配分といった機能ごとに実験ゲートを分離し、影響範囲を限定して検証を回せば、改善速度を落とさずに品質を守れます。
あわせて、遅延・欠損・重複といったデータ品質のSLOを明文化したデータ契約を交わし、契約違反時のフォールバック・ポリシー(たとえば安全な固定入札や入札抑制)をあらかじめ定義しておくと、障害時の判断が迷いません。
(1)モデル連携
CATE→価値→入札器→ペーサー(Primal-Dual)
(2)監視
データドリフト、分布外検知、因果効果の滑落検知
(3)実験基盤
ユニット(クリエイティブ/入札/配分)ごとにGate付きデプロイ
(4)データ契約
遅延/欠損/重複のSLO、壊れたときのフォールバック・ポリシー
主要KPI
因果KPIで統一する理由
測る指標は一貫して「純増」を捉えるものに揃えます。たとえばCausal ROAS は $$\mathrm{Causal\ ROAS}=\frac{\sum v(x)\cdot \tau(x)}{\mathrm{Spend}}$$
と表され、支出1に対して因果的にどれだけ価値が増えたかを示します。
媒体横断の比較には、千回あたりの因果価値であるCVPMが便利で、在庫やフォーマットの違いを跨いだ意思決定をシンプルにします。表面のCVやクリックに惑わされず、因果の物差しで配分すると、短期の最適化と長期の成長が同じ方向を向きます。
不確実性を意思決定に織り込む
効率管理には因果CPA、すなわち
$$ \mathrm{Causal\ CPA}=\frac{\mathrm{Spend}}{\sum \tau(x)}$$
を用い、コスト当たりの純増効果を直接監督します。LTVを基準とするLTV-ROASを併用すれば、単発の獲得効率と顧客価値の最大化を同じフレームで議論できます。
加えて、因果効果推定には必ず不確実性が伴うため、信頼区間や予測分散をダッシュボードに常時表示し、配分や入札の意思決定に幅を持たせます。
期待値だけでなく下振れの余地を見ながら動くことで、成果のブレに強い運用が実現します。
Causal ROASで価値を正しく測る
広告投資の成果を誤解なく捉えるには、表面的なクリックやラストタッチではなく、広告が存在したからこそ生まれた純増価値を測る必要があります。
そこで中核に据えるのが Causal ROAS です。これは支出に対してどれだけ因果的な価値を増やせたかを示す指標で、
$$\mathrm{Causal\ ROAS}=\frac{\sum v(x)\cdot \tau(x)}{\mathrm{Spend}}$$
と定義します。
ここで \(v(x)\) は接点 \(x\) の経済価値、\(\tau(x)\)はその接点に広告を出した場合に生じる因果効果(CATE)です。
この指標で運用を統一すると、媒体やキャンペーンごとの数字が一時的にばらついても、意思決定の軸が事業価値に揺るがず結びつき、長期の最適化がぶれません。
CVPMで媒体横断の比較を容易にする
異なる媒体やフォーマットを横断して比較するには、共通の物差しが必要です。私たちは「千回あたりの因果価値」である CVPM をダッシュボードの主指標に据えます。
CVPM はインプレッションのスケール差を正規化しつつ、広告在庫の質や供給状況に影響されにくい形で純増価値を示してくれるため、同一の基準で日別の配分判断が可能になります。
日々の運用では、CVPM の推移とばらつきを見ながら配信面の増減を滑らかに調整し、短期の学習と中期の効率を両立させます。
Causal CPAとLTV-ROASを併用して効率と成長を両立する
効率管理には因果CPAを用います。これは
$$\mathrm{Causal\ CPA}=\frac{\mathrm{Spend}}{\sum \tau(x)}$$
と表され、支出当たりの純増コンバージョンを直接的に管理できます。
いっぽうで顧客の長期価値を軽視しないために、LTV を基準にした LTV-ROAS も併用します。短期の獲得効率と長期の収益性が時にトレードオフになる場面でも、両者を同じ枠組みで観測することで、配分や入札の選択が一貫して事業価値の最大化に向きます。
不確実性帯を前提に意思決定の幅を持たせる
因果効果の推定には必ず不確実性が伴います。したがってダッシュボードでは、点推定だけでなく信頼区間や予測分散も併記し、配分や入札の意思決定に許容幅を持たせます。
上振れだけでなく下振れの可能性も織り込むことで、過度な攻めや過度な守りを避け、安定した改善カーブを描くことができます。
AI 広告 の研究
(1)「CVPM」の実装
媒体横断の共通指標として因果価値/コストを1000回あたりで正規化し、日別ダッシュボードの主指標に。
CVPMを日次の主指標として実装する
媒体ごとに仕様が異なっても、千回あたりの因果価値で正規化した CVPM を主指標に据えれば、配分の比較と更新が日次で一貫します。この設計は、在庫構造の違いを超えて「純増価値をどこで積むか」を直感的に判断できる点に独創があります。
(2)Creative Genome Graph
属性DAG+制約付きベイズ最適化で介入可能な要因の部分効果を学習。
Creative Genome Graphで介入可能な要因を学ぶ
クリエイティブの属性をDAGで表現し、どの要素に手を入れるとどの程度の因果的変化が生じるかを学習します。制約付きベイズ最適化を用いて、ブランドや法規のガードレールを守りながら、介入可能な要因の部分効果を効率よく探索します。
生成AIは無数の案を生み出せますが、因果で検証された学習が蓄積されることで、試行錯誤が戦略へと昇格します。
(3)Refereed RL
報酬最大化のアクターに対し、コンプライアンス・クリティックが常に違反確率を推定しラグランジュ罰で制御。
Refereed RLでコンプライアンスを内生化する
報酬最大化を追うアクターの横に、コンプライアンス違反の確率を常時推定する審判役のクリティックを置き、ラグランジュ罰で方策を制御します。
こうした Refereed RL は、攻めの最適化と守りの規制遵守をアルゴリズムの内部で同時に満たし、現場の安全性を担保したまま探索速度を上げられる点が特徴です。
(4)Calibrated MTA
MMM総量制約でMTAの識別性を引き上げ、チャネル横断の整合的効果を提供。
Calibrated MTAでマクロとミクロを整合させる
MMM が推定する総量効果の制約を MTA 側に与え、個別接点の貢献推定をキャリブレーションします。
これにより、チャネル横断の効果が過大・過小評価される偏りが抑えられ、ミクロの最適化がマクロの収益勾配と矛盾しない配分へと収束します。
(5)Neural Adstock
固定の減衰ではなく、ニューラルODE/畳み込み核で記憶効果の形状を学習。
Neural Adstockで記憶効果の形状を学習する
広告効果の減衰は固定パラメータで仮定するよりも、データから学習した方が現実に即します。ニューラルODEや畳み込み核を用いてアドストックの形状を学習することで、季節性やキャンペーン特性に応じた記憶効果をモデルに内蔵でき、配分のタイミングと強度に説得力が生まれます。
期待インパクトの定性的な目安
クリック最適化→因果価値最適化への移行で、同一予算でも冗長配信の削減とLTV-ROASの改善が期待
生成AIの属性介入×因果評価により、なぜ効いたかの知見を継続的に蓄積
MMM×MTAの整合で、短期と長期の意思決定のズレを縮小
AI研究を事業利益に応用する「AI広告OS」
このR&Dは、単なる自動化ではなく、因果を中心に測定→学習→制御→生成を一体化した広告オペレーティング・システムづくりです。
次の一手としては、
(1)CVPMダッシュボードの初期可視化、
(2)Primal-Dualペーシングのサンドボックス検証、
(3)Creative Genomeの属性定義ワークショップ、
の3点をすぐに動かせる起点としておすすめします。
AI 広告 料金表
アドバイザリー/コンサルティング/広告運用代行
表示は税別。初期月はオンボーディング費用が別途発生(後述)。
最低契約期間:アドバイザリー3ヶ月/運用代行6ヶ月/コンサルは案件単位。
成果指標はCausal ROAS / CVPM / LTV-ROASを標準採用。
セキュリティ・コンプライアンス(景表法・薬機法・ブランドセーフティ・同意管理等)をガードレールとして全プランに内包。
AI広告 料金表サマリー
区分 | 想定ケース | 料金の目安 |
---|---|---|
アドバイザリー | 経営直轄の意思決定支援・レビュー | 300–700万円/月 |
コンサルティング(プロジェクト) | 測定・基盤・モデルの構築 | 600–3,000万円/案件 |
広告運用代行(フルマネージド) | 配信~最適化まで全委託 | 300–1,800万円/月 + メディア費の6–12% + 成果連動 |
管理業務に関するオプション(最低契約期間 1年)
・ウェブサイト管理(月1回までの文言修正(画像修正は別途費用)・サーバー管理・ドメイン管理・ハッキング等の緊急対応):1サイトごと 5万円/月
・動画管理(月1回までの文言修正・動画素材管理など):1動画ごと 5万円/月
AI広告アドバイザリー
(Retainer)
プラン | 月額 | 体制・頻度 | 提供物(例) | SLA |
---|---|---|---|---|
Standard | 300–350万円 | 月1MTG / パートナー1名+DS | 施策レビュー、因果KPI設計、媒体方針メモ(月次)、予算配分案(Primal-Dual)、実験計画、四半期効果監査 | 2営業日以内回答 |
Executive(CAIAO) | 350–700万円 | パートナー主導の専任チーム | 事業KPIと連動したOS化ロードマップ、実験ガバナンス、対外レビュー | 24時間以内(営業時間) |
主な範囲
CVPM方針、チャネル横断の因果配分、探索予算(exploration tax)の規定、コンプライアンス二重承認設計、経営会議資料の共作 など。
AI広告 コンサルティング
(プロジェクト)
パッケージ | 期間目安 | 費用(税別) | 範囲 |
---|---|---|---|
計測・因果基盤立ち上げ | 6–8週 | 800–1,500万円 | イベント設計、CATE(DR-learner)初期学習、CVPMダッシュボード |
MMM×MTA ハイブリッド | 8–12週 | 1,200–2,500万円 | Neural/Hill飽和×Adstock、Calibrated MTA、配分提案の週次更新 |
生成AIクリエイティブ最適化 | 8–10週 | 900–1,800万円 | Creative Genome(属性DAG)、制約付きBO、ブランド安全ガード |
RL入札・ペーシングPoC | 10–14週 | 1,500–3,000万円 | 予算制約MDP、Primal-Dualペーサー、悲観的OPEで安全評価 |
プライバシー&クリーンルーム | 4–6週 | 600–1,200万円 | ID連携設計、差分プライバシー方針、同意管理/法令適合チェック |
特徴量ストア/データ契約 | 6–10週 | 1,000–2,000万円 | オン/オフ一致のFeature Store、SLO/SLA、ドリフト監視 |
カスタム対応の日当レート目安
Partner 60–80万円/日、Lead DS/Architect 40–60万円/日、ML/Ops 25–40万円/日。
AI広告運用代行
(フルマネージド)
プラン | 月額Retainer | メディア手数料 | 最低メディア費 | 成果連動(任意) | 体制例 |
---|---|---|---|---|---|
Lab(実験導入) | 300–400万円 | 12% | 1,500万円/月 | 因果粗利リフト×5–8% | Lead DS, AdOps, Strategist |
Scale(拡大型) | 500–900万円 | 9% | 3,000万円/月 | 同上 6–10% | Partner, DS×2, Architect, Creative |
OS(エンタープライズ) | 1,000–1,800万円 | 6% | 1億円/月〜 | 同上 8–12%(上限あり) | Partner, CAIAO級, DS/Eng/Legal連携 |
標準内包
入札
価値ベース(LTV×CATE)、RLペーシング、在庫混雑補正
クリエイティブ
属性DAG、ベイズ最適化、ブランド安全二重承認
測定
AB/ジオ/Switchback、OPE(IPS/DR/DM)アンサンブル
配分
MMM×MTA整合、CVPMによる日次ペース配分
ガバナンス
監査ログ、モデルカード、景表法・薬機法フィルタ
成果連動(定義例)
目標線超過分の因果粗利リフト
$$\Delta GM_{\text{causal}}=\sum_x \text{margin}(x)\cdot \hat{\tau}(x)$$
月次で目標値を合意し、超過分のβ=5–12%を成功報酬。四半期で精算。
天井(cap)
月額Retainerの1.5倍を上限。
AI広告 オンボーディング費用
(初期)
内容 | 費用目安 |
---|---|
タグ・イベント棚卸し、データ契約・SLO整備 | 300–400万円 |
CVPM可視化・初期ダッシュボード | 250–300万円 |
クリエイティブ属性タグ付け・安全ガード設定 | 250–300万円 |
(OSプランのみ)Feaure Store接続・配信SDK組込 | 300–600万円 |
AI広告 レポーティング/MTG頻度
(標準)
プラン | MTG | レポート | 監視・対応 |
---|---|---|---|
Lab | 月1 | 月次:因果KPI+実験結果 | 営業日 当日内 |
Scale | 月1 | 月次:配分・在庫、月次:MMM/MTA更新 | 10時間内(平日9–20時) |
OS | 月1+臨時 | 月次:全栈、四半期:監査報告 | 365日×5時間内(重大) |
よくある加算オプション(任意)
生成クリエイティブ制作(動画/静止画/コピー)
100–400万円/月(本数・尺に依存)
CRM/LTV連携・CDP統合
300–800万円/案件
共同研究(白書/論文化)
700–1500万円/四半期
目安となるプランの選び方
まずは意思決定の質を上げたい → アドバイザリー Standard(200–300万円/月)
測定の土台を短期に作りたい → 計測・因果基盤(800–1,500万円)
配信を任せて成果を最大化したい → 運用代行 Scale(500–900万円/月 + 9%)から開始、半年でOSへ。
ご契約・その他
途中解約
残期間の50%相当での中途精算(コンサル案件は着手金50%前払い)。
守秘義務・成果物の知財
モデル/ツールは利用許諾、データとダッシュボード成果は貴社所有が基本。
価格は案件の複雑性(チャネル数、ブランド規制、既存データの品質、内製リソース)で調整します。
Lab(実験導入)プランの計算例
前提
月額Retainer
250〜400万円(今回は例として300万円とします)
メディア手数料率
12%
メディア費(広告費)
1,500万円
① メディア手数料部分
1,500万円×0.12=180万円1,500万円 \times 0.12 = 180万円1,500万円×0.12=180万円
② 月額Retainer部分
300万円300万円300万円
③ 合計(税別)
300万円+180万円=480万円300万円 + 180万円 = 480万円300万円+180万円=480万円
つまり、広告費1,500万円でLabプラン(Retainer 300万円設定)を利用する場合、報酬は 480万円(税別) となります。
料金シミュレーター表
(広告費別)
広告費(メディア費) | Labプラン合計 | Scaleプラン合計 | OSプラン合計 |
---|---|---|---|
1,500万円 | 300 + (1,500×0.12) = 480万円 | 700 + (1,500×0.09) = 835万円 | 1,200 + (1,500×0.06) = 1,290万円 |
3,000万円 | 300 + (3,000×0.12) = 660万円 | 700 + (3,000×0.09) = 970万円 | 1,200 + (3,000×0.06) = 1,380万円 |
5,000万円 | 300 + (5,000×0.12) = 900万円 | 700 + (5,000×0.09) = 1,150万円 | 1,200 + (5,000×0.06) = 1,500万円 |
1億円 | 300 + (10,000×0.12) = 1,500万円 | 700 + (10,000×0.09) = 1,600万円 | 1,200 + (10,000×0.06) = 1,800万円 |
※単位はすべて万円。
※月額Retainerは例示値で固定、実際は契約時の設定額で計算。