「リーダーの思考パターンを組織に埋め込む」ことの有益性は、少なくとも7つのアカデミック・実務フレームワークで裏付けられている。
成長企業が直面する危機(Overload / Stall-out / Free fall)の90%は内部要因。Founder's Mentalityの3要素(反逆者のミッション・現場への執着・オーナーシップ意識)を持つ企業は、そうでない企業の3.1倍のパフォーマンスを発揮する。
「我々は何に対する反逆者なのか?」「現場で今何が起きているか?」「これを自分の金で買うか?」——これらの創業者的な問いが組織から消えていくことが成長の罠。
「優秀な人を雇って任せろ」という定説がAirbnbをほぼ崩壊させた。スケールしてもFounder Modeで直接関与し続けることが有効な場合がある。
問題は、創業者が直接関与できなくなったときにその「問い方」をどう残すか。
知識創造は4変換モード(共同化→表出化→連結化→内面化)を螺旋的に回す。リーダーの問いは典型的な「暗黙知」であり、これを形式知に変換する「表出化」が鍵。
「AIとの対話は暗黙知を形式知へと転換するプロセスを強力に支援する」——ただしAIが強いのは連結化(形式知→形式知)。共同化(身体的経験の共有)は依然として人間同士の直接的インタラクションが不可欠。
「答えを知らない質問をすることで、相手を引き出し、好奇心と関心に基づく関係を築く技術」。Tell文化(指示する文化)がPsychological Safetyを能動的に破壊する。
問いの質と種類が関係性の質を決め、それが情報の流れと意思決定の質を決める。
「チームの中で対人リスクを取っても安全だという共有された信念」。不確実性が高いほど、Psychological Safetyのパフォーマンスへの効果が大きくなる。リーダーの3ステップ: (1)問題の枠組みを示す (2)能動的に発言を求める (3)建設的に応答する。
チェックリストは「情報の漏れを防ぐ」だけでなく「チームをチームにする」機能を持つ。控えめな人にも発言する自信を与え、権威勾配を平坦化する。
「意思決定の権限を中心から周辺へ押し出し、経験と専門性に基づいて適応する余地を与える」
意思決定時の思考プロセスを構造的に記録し、結果と比較する。「賢くて運が悪かった」と「愚かだが運が良かった」を区別できるようにする。
7つのフレームワークを統合すると、以下の7ステップのプロセスが浮かび上がる。stadiumsの現状の仕組み(CLAUDE.md / today101 / Circleback / 1on1アーカイブ)との接続も含めて設計する。
リーダーの会話・議事録からAIで問いパターンを抽出する。これは今回完了済み(914件→50,829発言→11,661候補→50件選定)。次のステップは、これを定期的に更新するサイクルを回すこと。Circlebackの月次データを自動取得し、問いパターンの変化をトラッキングする。
問いをカテゴリー別に整理し、意思決定の場面に紐づける。fujii-toi-collection.htmlのSection 03がこれに該当。ただしDalioのPrinciplesのように、各問いに「なぜこの問いが重要か」の根拠(過去の失敗事例・成功事例)を紐づけることで説得力が増す。
問いを組織に展開する際、「なぜできなかったのか?」ではなく「何が障害になっているか?」のように、心理的安全性を損なわない表現に変換する。Edmondsonの3ステップ(枠組み提示→発言招待→建設的応答)を問いの運用ルールに組み込む。
新しい会議を増やすのではなく、既存の会議体のアジェンダ冒頭に「今日確認すべき問い」を2-3個表示する仕組みを作る。例: 開発定例の冒頭に「この機能開発は売上に直結するか?」「100店舗で回る設計になっているか?」を表示。DO-CONFIRM型(会議の最後に確認)とREAD-DO型(会議の冒頭に確認)を会議の性質に応じて使い分ける。
庄司・比江島・落合など中間層のマネージャーが、1on1やチーム運営で「藤井的な問い」を自然に使うようになることがゴール。最初のステップとして、庄司くんとのデータ分析プロジェクト(今回の問い集分析)自体が浸透の実践になっている。ROIはコーチング費用の平均7倍(PwC調査)。
HBR (2026年2月) が提唱する「コンテキストエンジニアリング」——組織のコンテキスト(判断基準・ワークフロー・例外処理のルール)をAIに埋め込み、意思決定の瞬間に適切な問いを提示する。 例: Slackの新しいコンテキスト認識AIエージェント(2026年1月リリース)は「制度的記憶」を持つ。同様に、stadiumsの判断基準をCLAUDE.mdに埋め込むことで、AIが文脈に応じた藤井的な問いを自動提示できる。
藤井の問いを「正解」として固定しない。 チームが自らの問いを生み出し、それが藤井の問いと同等に扱われる状態を目指す。庄司が「集合写真+手紙」を自発的に提案したように、ブランド思考ができるメンバーが育っていることが成長の証。定期的(四半期ごと)に「新しい問い」を収集し、問い集を更新する。
| タッチポイント | 問いの使い方 | DO / READ-DO |
|---|---|---|
| 開発定例(週次) | 冒頭に「今週のリリースは売上に直結するか?」「100店舗で回る設計か?」を表示 | READ-DO |
| クリエイティブチェック(週2回) | レビュー後に「ブランドコミュニケーションがゼロのタッチポイントはないか?」を確認 | DO-CONFIRM |
| 経営会議(月次) | 議題ごとに該当カテゴリーの問いを1つ提示。Circlebackの暗黙知セクションに「問いへの回答」を記録 | READ-DO |
| 1on1(週次) | マネージャーが「KPIの手前の問題は何か?」をコーチング的に問う | 対話型 |
| 採用面接 | 「なぜトレーナーだったんですか?」「驚きを感じた経験は?」をAmazon LP面接のように構造化 | READ-DO |
| 新プロジェクト開始時 | Notion/Asanaテンプレートに「前提確認チェックリスト」を埋め込み | DO-CONFIRM |
"Context is demonstrated execution – the workflows teams actually follow, the signals they respond to, the judgment calls that repeat across real work."
全社が同じAIモデルにアクセスできる時代に、組織のコンテキストこそが差別化要因。「コンテキストエンジニアリング」として、AIに意思決定の瞬間に適切なコンテキストを届ける仕組みを構築すべき。
"The way winning teams collaborate, the nuances of communication, the shared values and collective 'hustle' form a living blueprint of competitive advantage."
組織の「集合的エートス」をAIの新たなフロンティアと位置付け。「ワークグラフ」(匿名化・集約されたチーム実行プロセスのビュー)の構築を推奨。
エージェンティックAIへの投資の最大目的は「人間の判断の拡張」。広範にエージェンティックAIを導入した企業の79%が「AIを人間の意思決定者へのインサイト生成に投資している」と回答。判断をAIに任せるのではなく、判断に必要な問いをAIが提示する形が現実的。
100人超のAIタスクフォースを編成。社員の95%がAIツールを使用、エンジニア1人あたりのアウトプットが前年比64%増加、開発コードの70%にAIが関与。「Back to Startup」として新バリュー「Move Fast」を導入し、AI導入と組織文化変革を同時推進。
現在のCLAUDE.md(ルートのコアプロフィール + 各プロジェクト別)に、「意思決定時に確認すべき問い」セクションを追加する。Claude Codeが作業する際に、該当する問いを自動的に参照する状態を作る。
実装コスト: CLAUDE.mdの追記のみ。即日対応可能。
今回手動で行った「Circleback CLI → 問い抽出 → 構造化」のプロセスを、月次で自動実行するスクリプトを作成。新しい問いが出現したら自動検知し、問い集に追加候補として提示する。
実装コスト: Pythonスクリプト + cronジョブ。today101のmorning_auto.shと同じ仕組み。
Circlebackが生成するアジェンダに、会議の種類に応じた「確認すべき問い」を自動挿入する。例: 開発定例→システム設計/実現可能性の問い、クリエイティブチェック→ブランド一貫性の問い。
実装コスト: Slack botまたはCircleback連携。中程度の開発が必要。
Science Advances誌 (2024年7月) の研究: 「AIは個人の創造性を向上させるが、集団としての多様性は低下させる」。藤井の判断パターンをAIに深くエンコードすればするほど、AIの出力が「藤井的」に均質化する。対策: 定期的に「CLAUDE.mdに書かれていない視点からの反論」をAIに求めるプロセスを入れる。庄司や他メンバーの問いパターンも同等に蓄積する。
全てのガイドラインが全てのユースケースに適用されるわけではない。リスクベースルーティング(判断のリスク度に応じてチェックリストの強度を動的に調整する)がベストプラクティス。低リスク判断には最小限の確認、高リスク判断にのみ深い検証を適用する。
SECIモデルで最も重要な「暗黙知→暗黙知」の変換(身体的経験の共有)はAIでは代替できない。藤井と庄司が早朝6時に「精神と時の部屋」で1時間話すような共体験の場は、チェックリストやAIでは再現できない。仕組み化と共体験の場の両方が必要。