ai-human-boundary
AI と人が一緒に価値を選ぶための境界ガイド
このリポジトリは、
AI → 人 ではなく
AI+人 → 価値
という関係を前提に、
人が AI と付き合うときに、
最低限「知っておくべき境界」
を整理・記録するためのものです。
このリポジトリは何か
このリポジトリは、
- AI を賢く使う方法
- AI に任せるための設計
- AI の精度や性能の話
を扱いません。
扱うのはただ一つです。
AIと一緒に考えるとき、
どこから先は人が引き受けるべきか
前提:これは「設計」ではなく「ガイド」です
ここで書かれている内容は、
- ルールではありません
- 実装仕様ではありません
- 判断基準を強制するものでもありません
これは、
AI時代に人が壊れないための理解のガイドです。
1. AIは「不確実性を共有できない」
人間同士なら、自然に起きることがあります。
- 一緒に悩む
- 一緒に賭ける
- 一緒に不安を抱える
- 一緒に責任を引き受ける
AIは、これらを 構造的にできません。
AIは不確実性を「扱う」ことはできても、
不確実性を一緒に引き受けることはできない。
だから、
不確実な選択を後押しするのは、人間の役割です。
2. AIの回答は整っているが、不確実性が省略されている
AIの回答は、
- 滑らかで
- 迷いがなく
- もっともらしい
しかし、その裏側には、
- 迷い
- 不安
- 賭け
- リスク
- 責任
が 含まれていません。
必要なときには、
次の事実を思い出す必要があります。
AIは不確実性を省略する
これは欠陥ではなく、性質です。
3. AIは「判断を閉じてよいか」を自分で決められない
AIは、自分の出力が
- 参考として使われるのか
- 行動の根拠になるのか
- 誰かの判断を代替してしまうのか
を観測できません。
そのため、
- 責任が分散したら閉じられない
- 取消できないなら閉じられない
- 社会的文脈が立ち上がったら閉じられない
といった条件を、
構造として持つ必要があります。
この考え方は
Decision Closure(判断閉路構造) として整理されています。
4. 人間にも「分からないランプ」が必要
AIには idk-lamp という考え方があります。
しかし本当は、
人間にも必要です。
- 今は判断できない
- 今は決められない
- 今は不確実性が大きすぎる
これを、
自分自身や周囲に伝えるためのシグナル。
人間が「分からない」と言えることは、
AI時代の重要なスキルです。
5. AIの提案は「行動の責任」を肩代わりしない
行動のレイヤーには、
次の3つの軸しかありません。
- 知っている / 知らない
- 提案のまま行動した / 人が判断した
- 人間自身もギブアップした
つまり、
行動の責任は常に人間にあります
AIは行動の共犯者にはなれません。
6. AIは「人間の価値」を知らない
AIは価値判断を持ちません。
- 何を大切にするか
- 何を失いたくないか
- どんな未来を選ぶか
- どんなリスクを許容するか
これらは、
人間固有の領域です。
AIは価値を推測することはできても、
共有することはできません。
7. AIは補助であって、代替ではない
AIは、
- 判断材料を提供できる
- 視点を増やせる
- 思考を整理できる
しかし、
- 背中を押さない
- 賭けに参加しない
- 責任を持たない
だからこそ、
最終判断は人間が閉じるべきです
それは責任ではなく、
価値を選ぶ行為だからです。
1. AI と人の境界の全体像
このドキュメントは、
ai-human-boundary が扱う「境界」の全体像をまとめたものです。
README は“入口”として最低限のガイドを示し、
ここではその裏側にある 構造 を整理します。
1. 全体構造(レイヤー構造の地図)
AI と人が一緒に価値を選ぶとき、
関係は次のような多層構造になります。
価値(VCDesign)
↓
人間の意思決定レイヤー(不確実性の扱い)
├─ 人間側の idk-lamp(判断を閉じられないシグナル)
└─ 不確実性のメタ認知(AIは不確実性を省略する)
↓
AI+人 → 行動(運用レイヤー)
├─ 知っている / 知らない
├─ 提案のまま / 人が判断
└─ 人もギブアップ
↓
Decision Closure(AIが判断を閉じてよいか)
├─ 5ステップ(責任・取消・可逆性・連鎖・社会文脈)
└─ Transition(途中反転)
↓
BOA(世界の境界)
コード
このリポジトリが扱うのは、
Decision Closure より上の層(人間の意思決定レイヤー〜価値) です。
2. このリポジトリが扱う領域
◆ 2.1 人間の意思決定レイヤー
AIと人が一緒に考えるとき、
人間側には次の2つの構造が必要になります。
● 人間側の idk-lamp
- 今は判断できない
- 今は決められない
- 今は不確実性が大きすぎる
これを周囲に伝えるためのシグナル。
AIに idk-lamp が必要だったように、
人間にも同じものが必要になります。
● 不確実性のメタ認知
AIの回答は滑らかで整っているが、
不確実性が省略されている。
そのため人間は必要なときに、
「AIは不確実性を共有できない」
という事実を思い出す必要があります。
◆ 2.2 行動レイヤー(AI+人 → 行動)
行動の責任は常に人間にあります。
その構造は次の3軸で表せます。
- 知っている / 知らない
- 提案のまま行動した / 人が判断した
- 人間自身もギブアップした
この3軸は、
AIと人が協力して行動する際の“最小構造”です。
3. Decision Closure との関係
Decision Closure(判断閉路構造)は、
AIが判断を閉じてよいか を決めるための構造です。
- 責任主体が1人か
- 心理的取消に依存していないか
- 物理的に取り消せるか
- 行動が連鎖しないか
- 社会的文脈を帯びていないか
これらの条件が破綻すると、
AIは判断を閉じず **Human-Closed** になります。
このリポジトリは、
Decision Closure の“外側”にある
人間の意思決定の境界を扱います。
4. BOA(世界の境界)との関係
BOA は「世界の境界」を定義する層であり、
AI がどこまで踏み込めるかの外枠を決めます。
- 何が AI の責任か
- 何が人間の責任か
- どこまでが AI の領域か
Decision Closure は BOA の上に乗り、
ai-human-boundary はそのさらに上に位置します。
5. このリポジトリの目的
- AIと人が一緒に価値を選ぶための“境界”を整理する
- AI時代に人が壊れないための理解のガイドを残す
- Decision Closure の外側にある「人間の役割」を明確にする
これは設計でも仕様でもなく、
人間のためのガイドです。
6. 推奨される読み順
1. README
2. 00_overview(この文書)
3. human-idk-lamp
4. uncertainty
5. action-layer
6. relationship-with-decision-closure
7. 最後に
AIが賢くなるほど、
人間が「決めなくてよい理由」は増えていきます。
しかし、
価値を選ぶのは、常に人間の役割である
この境界を忘れないために、
このリポジトリは存在します。
2. 人間側の「分からないランプ」
この文書は、
人間にも idk-lamp(判断を閉じられないシグナル)が必要である
という考え方を整理したものです。
AI に idk-lamp が必要だったように、
AI 時代の人間にも同じ構造が必要になります。
1. なぜ「人間側の idk-lamp」が必要なのか
AI と人が一緒に考えるとき、
人間はしばしば次のような状況に置かれます。
- 判断材料はあるが、決めきれない
- 不確実性が大きすぎる
- 未来の影響が読めない
- 責任の重さが大きい
- 価値の選択が絡む
しかし、人間はこれを 黙って抱え込んでしまう ことが多い。
その結果、
- 無理に決断してしまう
- AI の提案をそのまま採用してしまう
- 本当は判断できないのに「できるふり」をしてしまう
という問題が起きる。
これを防ぐために必要なのが、
人間側の idk-lamp です。
2. 人間側の idk-lamp が示すもの
人間側の idk-lamp は、次の状態を示します。
- 今は判断できない
- 今は決められない
- 今は不確実性が大きすぎる
- 今は責任を引き受けられない
- 今は選択の価値を決められない
これは弱さではなく、
意思決定の健全性を守るためのシグナルです。
3. 人間同士では自然に共有される「不確実性」
人間同士の会話では、
不確実性は“空気”として自然に共有されます。
- 相手の迷い
- 相手の不安
- 相手の責任感
- 相手の賭けの感覚
- 相手の価値観の揺れ
これらは言葉にしなくても伝わる。
だから人間同士は、
不確実性を共有しながら意思決定できる。
4. 人+AI では不確実性が共有されない
AI は構造的に次のことができません。
- 一緒に悩む
- 一緒に賭ける
- 一緒に責任を持つ
- 一緒に不安を抱える
- 一緒に未来を想像する
つまり、AI は 不確実性の共犯者になれない。
そのため、人間が「分からない」と言わない限り、
AI はその不確実性を認識できない。
5. 人間側の idk-lamp が果たす役割
人間側の idk-lamp は、次の役割を持ちます。
● ① 自分自身へのシグナル
「今は決められない」という事実を
自分で認識するためのメタ認知。
● ② AI へのシグナル
AI に対して
「判断を閉じる段階ではない」
ことを伝える。
● ③ 周囲(人間)へのシグナル
チームや関係者に
「今は判断を保留すべき」
という状態を共有する。
● ④ 責任の暴走を防ぐ
判断を急がせる圧力から
自分を守るための境界。
6. どんなときに「人間側の idk-lamp」を点灯すべきか
次のような場面では、
積極的に idk-lamp を点灯すべきです。
- 判断の根拠が薄い
- 未来の影響が大きい
- 価値の選択が絡む
- 自分の状態が不安定
- 情報が足りない
- 責任が重すぎる
- AI の回答が滑らかすぎて不安
特に最後の項目は重要です。
AI の回答が整っているほど、
人間は「不確実性が省略されている」ことを忘れやすい。
7. 人間側の idk-lamp の具体的な表現例
これはルールではなく、
あくまで“表現の例”です。
- 「今は判断できません」
- 「もう少し考える時間が必要です」
- 「この不確実性は自分では扱えません」
- 「これは価値の選択なので、すぐには決められません」
- 「判断を保留します」
重要なのは、
判断を止めることを恥じない こと。
8. 人間側の idk-lamp と Decision Closure の関係
Decision Closure は
AI が判断を閉じてよいか を決める構造。
人間側の idk-lamp は
人間が判断を閉じてよいか を決めるシグナル。
両者は次のように補完し合う。
AI:閉じてはいけない判断を閉じない(Decision Closure)
人:閉じられない判断を閉じない(human-idk-lamp)
コード
この二つが揃って初めて、
AI と人の協働が健全になる。
9. まとめ(短い版)
- 人間にも「分からないランプ」が必要
- 人間同士では自然に共有される不確実性は、AIとは共有されない
- AIは不確実性の共犯者になれない
- 判断できない状態を示すことは弱さではなく境界
- 人間側の idk-lamp は、意思決定の健全性を守るための構造
- Decision Closure と対になる存在
10. 次に読むべき文書
- 02_uncertainty.ja.md(不確実性の扱い)
- 03_action-layer.ja.md(行動レイヤーの3軸)
- 04_relationship-with-decision-closure.ja.md(DCとの関係)
3. 不確実性の扱い
この文書は、
AI と人が一緒に考えるときに最も重要になる「不確実性」
について整理したものです。
AI は不確実性を「扱う」ことはできますが、
不確実性を“共有する”ことはできません。
この違いが、AI と人の境界を決定づけます。
1. 不確実性とは何か
不確実性とは、次のような状態を指します。
- 未来が読めない
- 結果が保証されない
- 判断材料が揃っていない
- 価値の選択が絡む
- リスクがゼロにならない
人間の意思決定は、
常にこの不確実性の中で行われています。
2. 人間は「不確実性を共有できる」
人間同士の意思決定には、
次のような“共有”が自然に存在します。
- 相手も迷っている
- 相手も不安を抱えている
- 相手も責任を感じている
- 相手も賭けに参加している
- 相手も未来を読めない
つまり、人間同士は 不確実性の共犯者 になれる。
この「共犯性」があるからこそ、
人間は不確実な選択を後押しし合える。
3. AI は「不確実性の共犯者になれない」
AI は構造的に次のことができません。
- 一緒に悩む
- 一緒に賭ける
- 一緒に責任を持つ
- 一緒に不安を抱える
- 一緒に未来を想像する
AI は不確実性を“計算”することはできても、
不確実性を“一緒に抱える”ことはできない。
そのため、AI は次の領域に踏み込めません。
- 背中を押す
- 賭けを促す
- 勇気を与える
- リスクを共に負う
これらはすべて 人間固有の領域 です。
4. AI の回答は「不確実性が省略されている」
AI の回答は滑らかで整っていますが、
その裏側には次のものが含まれていません。
- 迷い
- 不安
- 賭け
- 責任
- 価値観
- 未来への恐れ
つまり、AI の回答は 不確実性が“抜け落ちた状態” で提示される。
これは欠陥ではなく、
AI の構造的な性質です。
5. 不確実性が省略されると何が起きるか
人間は AI の滑らかな回答を見て、
次のような誤解をしやすくなります。
- 「これは確実なのだろう」
- 「迷いがないなら正しいのだろう」
- 「AI が言うなら大丈夫だろう」
しかし実際には、
AI は不確実性を省略しているだけで、
その判断の“重さ”を共有していない。
このギャップが、
人間の意思決定を危うくする。
6. 不確実性を扱うのは人間の役割
不確実性を扱うには、次の要素が必要です。
- 勇気
- 価値観
- 責任
- 直感
- 経験
- 未来への覚悟
これらはすべて 人間固有の能力 であり、
AI が代替できる領域ではありません。
だからこそ、
不確実性を選ぶ判断は、人間が閉じるべき判断
であり、AI が閉じてはいけない。
7. 不確実性と「人間側の idk-lamp」
不確実性が大きいとき、
人間は次のような状態になります。
- 判断できない
- 決められない
- 未来が怖い
- 責任が重い
- 情報が足りない
この状態を示すために必要なのが、
人間側の idk-lamp です。
AI が idk-lamp を持つように、
人間も「今は閉じられない」というシグナルを
自分と周囲に示す必要がある。
8. 不確実性と Decision Closure の関係
Decision Closure は
AI が判断を閉じてよいか を決める構造。
不確実性が大きい判断は、
Decision Closure の 5 ステップのどこかで必ず破綻する。
- 責任が分散する
- 取消できない
- 社会文脈が立ち上がる
- 行動が連鎖する
つまり、
不確実性が大きい判断は、AI が閉じてはいけない判断
となる。
9. まとめ(短い版)
- 不確実性は人間の意思決定の中心
- 人間同士は不確実性を共有できる
- AI は不確実性の共犯者になれない
- AI の回答は不確実性が省略されている
- 不確実性を選ぶ判断は人間の領域
- 不確実性が大きいときは人間側の idk-lamp が必要
- Decision Closure は不確実性の大きい判断を AI から外す構造
10. 次に読むべき文書
4. 行動レイヤーの3軸
この文書は、
AI と人が協力して行動を決めるときに必要となる「行動レイヤー」
を整理したものです。
行動レイヤーは、Decision Closure の外側にあり、
AI と人が「一緒に価値を選ぶ」ための最小構造です。
1. 行動レイヤーとは何か
AI と人が対話し、何かを決めようとするとき、
最終的には 行動 に落ちていきます。
しかし、行動の責任は常に人間にあります。
そのため、行動レイヤーには次の3つの軸が存在します。
知っている / 知らない
提案のまま行動した / 人が判断した
人間自身もギブアップした
コード
この3軸は、
AI と人が協働する際の“最小構造”です。
2. 軸①:知っている / 知らない
行動に関わる知識は、
人間側に次の2種類があります。
● 知っている
- 手順を知っている
- 経験がある
- 何をすべきか理解している
この場合、AI の役割は
思い出し・整理・確認 に近い。
● 知らない
- 初めての領域
- 手順が分からない
- 判断材料が足りない
この場合、AI の提案は
新しい行動のきっかけ になる。
ただし、知らない領域での行動は
不確実性が大きいため、
最終判断は必ず人間が行う必要がある。
3. 軸②:提案のまま行動した / 人が判断した
AI の提案に対して、人間は次のどちらかを選ぶ。
● 提案のまま行動した
- AI の提案をそのまま採用
- 判断を省略した状態
- リスクの理解が浅くなりやすい
● 人が判断した
- AI の提案を材料として扱う
- 自分の価値観で選ぶ
- 行動の責任を自分で引き受ける
重要なのは、
AI は行動の責任を肩代わりできない
という点。
AI は提案できるが、
選択の重さを共有できない。
4. 軸③:人間自身もギブアップした
行動レイヤーで最も重要な軸。
人間自身が次のような状態になることがある。
- 判断できない
- 決められない
- 不確実性が大きすぎる
- 責任が重すぎる
- 未来が怖い
これは弱さではなく、
人間の意思決定の自然な限界。
この状態は、
人間側の idk-lamp を点灯すべき場面。
そして、
人間がギブアップする判断は、
AI が閉じてはいけない判断でもある。
5. 行動レイヤーの3軸が示すもの
この3軸は、
AI と人の協働における“境界”を明確にする。
知っている / 知らない
→ 行動の難易度と不確実性
提案のまま / 人が判断
→ 判断主体と責任の所在
人もギブアップ
→ 人間の限界と idk-lamp の必要性
コード
この3つが揃うことで、
AI と人の協働が健全になる。
6. 行動レイヤーと Decision Closure の関係
Decision Closure は
AI が判断を閉じてよいか を決める構造。
行動レイヤーは
人間が行動を引き受けるための構造。
両者は次のように補完し合う。
Decision Closure:
AI が閉じてはいけない判断を外す
Action Layer:
人間が行動を引き受けるための最小構造を整える
コード
つまり、
AI は閉じない
人は引き受ける
その境界を支えるのが行動レイヤー
という関係になる。
7. まとめ(短い版)
- 行動レイヤーは AI+人 → 行動 の最小構造
- 3軸は「知識」「判断主体」「人間の限界」
- 行動の責任は常に人間にある
- 人間がギブアップする判断は、AI も閉じてはいけない
- Decision Closure と行動レイヤーは補完関係
8. 次に読むべき文書
5. Decision Closure との関係
この文書は、
ai-human-boundary(人間の境界ガイド) と
Decision Closure(AI の判断閉路構造)
の関係を整理したものです。
両者は目的も扱う領域も異なりますが、
互いに補完し合う構造になっています。
1. まず結論:両者は「上下関係」ではなく「役割の違い」
ai-human-boundary:
人間がどこまで引き受けるか(価値・不確実性・判断の限界)
Decision Closure:
AI がどこまで踏み込めるか(判断を閉じてよいか)
コード
つまり、
- 人間の境界を扱うのが ai-human-boundary
- AI の境界を扱うのが Decision Closure
という関係。
どちらが上位という話ではなく、
両者が揃って初めて AI+人 の協働が成立する。
2. 両者が扱う領域の違い
◆ ai-human-boundary が扱う領域
- 人間の不確実性
- 人間側の idk-lamp
- 行動の責任
- 価値の選択
- 人間の限界
- AI と人の協働の“外側”の構造
これは 人間の意思決定レイヤー に属する。
◆ Decision Closure が扱う領域
- AI が判断を閉じてよいか
- 責任の所在
- 可逆性
- 行動の連鎖
- 社会的文脈
- 途中反転(Transition)
これは AI の判断閉路レイヤー に属する。
3. 両者の境界を図にするとこうなる
価値(VCDesign)
↓
人間の意思決定レイヤー(ai-human-boundary)
├─ 人間側の idk-lamp
├─ 不確実性のメタ認知
└─ 行動レイヤーの3軸
↓
AI の判断閉路レイヤー(Decision Closure)
├─ 5ステップ
└─ Transition
↓
BOA(世界の境界)
コード
ai-human-boundary は Decision Closure の外側 にあり、
人間がどう立つかを扱う。
Decision Closure は AI の内側 にあり、
AI がどこまで踏み込めるかを扱う。
4. なぜこの2つが必要なのか
AI と人が協働するには、
次の2つの境界が必要になる。
● ① AI が踏み込んではいけない境界
→ Decision Closure が担当
→ 「AI はここで判断を閉じてはいけない」
● ② 人間が引き受けるべき境界
→ ai-human-boundary が担当
→ 「ここから先は人間が決める」
この2つが揃って初めて、
AI と人の協働が 安全で、健全で、価値に沿ったもの になる。
5. 両者の関係を一言で言うと
Decision Closure は AI の“止まる構造”。
ai-human-boundary は 人間の“立つ構造”。
AI が止まるだけでは不十分で、
人間がどこに立つかが必要。
人間が立つだけでは不十分で、
AI がどこで止まるかが必要。
6. 両者が補完し合う具体例
● ケース1:不確実性が大きい判断
- 人間側:idk-lamp が点灯
- AI側:Decision Closure が Human-Closed を返す
→ 両者が同じ方向を向く
● ケース2:人間がギブアップしている
- 人間側:判断できない
- AI側:責任が分散しているため閉じられない
→ AI が人間の限界を踏み越えない
● ケース3:AI の提案が滑らかすぎる
- 人間側:不確実性の省略をメタ認知
- AI側:社会文脈が立ち上がり閉じられない
→ 誤った確信を避けられる
7. 両者の違いを表にすると
| 項目 | ai-human-boundary | Decision Closure |
|---|---|---|
| 対象 | 人間 | AI |
| 扱うもの | 不確実性・価値・責任の引き受け | 判断の可否・可逆性・社会文脈 |
| 目的 | 人間が壊れないためのガイド | AI が踏み越えないための構造 |
| 形式 | ガイド / 理解 | 構造 / ルール |
| 出力 | 人間の立ち位置 | AI-Closed / Human-Closed |
8. まとめ(短い版)
- ai-human-boundary は「人間の境界」
- Decision Closure は「AI の境界」
- 両者は上下ではなく役割が違う
- 不確実性は人間が扱う
- 判断の閉路は AI が扱う
- 2つが揃って初めて AI+人 の協働が成立する