← Home

ai-human-boundary

AI と人が一緒に価値を選ぶための境界ガイド

このリポジトリは、
AI → 人 ではなく
AI+人 → 価値
という関係を前提に、

人が AI と付き合うときに、
最低限「知っておくべき境界」

を整理・記録するためのものです。


このリポジトリは何か

このリポジトリは、

  • AI を賢く使う方法
  • AI に任せるための設計
  • AI の精度や性能の話

を扱いません。

扱うのはただ一つです。

AIと一緒に考えるとき、
どこから先は人が引き受けるべきか

前提:これは「設計」ではなく「ガイド」です

ここで書かれている内容は、

  • ルールではありません
  • 実装仕様ではありません
  • 判断基準を強制するものでもありません

これは、
AI時代に人が壊れないための理解のガイドです。

1. AIは「不確実性を共有できない」

人間同士なら、自然に起きることがあります。

  • 一緒に悩む
  • 一緒に賭ける
  • 一緒に不安を抱える
  • 一緒に責任を引き受ける

AIは、これらを 構造的にできません

AIは不確実性を「扱う」ことはできても、
不確実性を一緒に引き受けることはできない

だから、

不確実な選択を後押しするのは、人間の役割です。

2. AIの回答は整っているが、不確実性が省略されている

AIの回答は、

  • 滑らかで
  • 迷いがなく
  • もっともらしい

しかし、その裏側には、

  • 迷い
  • 不安
  • 賭け
  • リスク
  • 責任

含まれていません

必要なときには、
次の事実を思い出す必要があります。

AIは不確実性を省略する

これは欠陥ではなく、性質です。

3. AIは「判断を閉じてよいか」を自分で決められない

AIは、自分の出力が

  • 参考として使われるのか
  • 行動の根拠になるのか
  • 誰かの判断を代替してしまうのか

を観測できません。

そのため、

  • 責任が分散したら閉じられない
  • 取消できないなら閉じられない
  • 社会的文脈が立ち上がったら閉じられない

といった条件を、
構造として持つ必要があります

この考え方は
Decision Closure(判断閉路構造) として整理されています。

4. 人間にも「分からないランプ」が必要

AIには idk-lamp という考え方があります。

しかし本当は、
人間にも必要です。

  • 今は判断できない
  • 今は決められない
  • 今は不確実性が大きすぎる

これを、
自分自身や周囲に伝えるためのシグナル。

人間が「分からない」と言えることは、
AI時代の重要なスキルです。

5. AIの提案は「行動の責任」を肩代わりしない

行動のレイヤーには、
次の3つの軸しかありません。

  • 知っている / 知らない
  • 提案のまま行動した / 人が判断した
  • 人間自身もギブアップした

つまり、

行動の責任は常に人間にあります

AIは行動の共犯者にはなれません。

6. AIは「人間の価値」を知らない

AIは価値判断を持ちません。

  • 何を大切にするか
  • 何を失いたくないか
  • どんな未来を選ぶか
  • どんなリスクを許容するか

これらは、
人間固有の領域です。

AIは価値を推測することはできても、
共有することはできません

7. AIは補助であって、代替ではない

AIは、

  • 判断材料を提供できる
  • 視点を増やせる
  • 思考を整理できる

しかし、

  • 背中を押さない
  • 賭けに参加しない
  • 責任を持たない

だからこそ、

最終判断は人間が閉じるべきです

それは責任ではなく、
価値を選ぶ行為だからです。

1. AI と人の境界の全体像

このドキュメントは、
ai-human-boundary が扱う「境界」の全体像をまとめたものです。

README は“入口”として最低限のガイドを示し、
ここではその裏側にある 構造 を整理します。

1. 全体構造(レイヤー構造の地図)

AI と人が一緒に価値を選ぶとき、
関係は次のような多層構造になります。

価値(VCDesign)

人間の意思決定レイヤー(不確実性の扱い)
├─ 人間側の idk-lamp(判断を閉じられないシグナル)
└─ 不確実性のメタ認知(AIは不確実性を省略する)

AI+人 → 行動(運用レイヤー)
├─ 知っている / 知らない
├─ 提案のまま / 人が判断
└─ 人もギブアップ

Decision Closure(AIが判断を閉じてよいか)
├─ 5ステップ(責任・取消・可逆性・連鎖・社会文脈)
└─ Transition(途中反転)

BOA(世界の境界)

コード

このリポジトリが扱うのは、
Decision Closure より上の層(人間の意思決定レイヤー〜価値) です。


2. このリポジトリが扱う領域

◆ 2.1 人間の意思決定レイヤー

AIと人が一緒に考えるとき、
人間側には次の2つの構造が必要になります。

● 人間側の idk-lamp

  • 今は判断できない
  • 今は決められない
  • 今は不確実性が大きすぎる

これを周囲に伝えるためのシグナル。

AIに idk-lamp が必要だったように、
人間にも同じものが必要になります。

● 不確実性のメタ認知

AIの回答は滑らかで整っているが、
不確実性が省略されている

そのため人間は必要なときに、

「AIは不確実性を共有できない」

という事実を思い出す必要があります。


◆ 2.2 行動レイヤー(AI+人 → 行動)

行動の責任は常に人間にあります。
その構造は次の3軸で表せます。

  1. 知っている / 知らない
  2. 提案のまま行動した / 人が判断した
  3. 人間自身もギブアップした

この3軸は、
AIと人が協力して行動する際の“最小構造”です。


3. Decision Closure との関係

Decision Closure(判断閉路構造)は、
AIが判断を閉じてよいか を決めるための構造です。

  • 責任主体が1人か
  • 心理的取消に依存していないか
  • 物理的に取り消せるか
  • 行動が連鎖しないか
  • 社会的文脈を帯びていないか

これらの条件が破綻すると、
AIは判断を閉じず **Human-Closed** になります。

このリポジトリは、
Decision Closure の“外側”にある
人間の意思決定の境界を扱います。


4. BOA(世界の境界)との関係

BOA は「世界の境界」を定義する層であり、
AI がどこまで踏み込めるかの外枠を決めます。

  • 何が AI の責任か
  • 何が人間の責任か
  • どこまでが AI の領域か

Decision Closure は BOA の上に乗り、
ai-human-boundary はそのさらに上に位置します。


5. このリポジトリの目的

  • AIと人が一緒に価値を選ぶための“境界”を整理する
  • AI時代に人が壊れないための理解のガイドを残す
  • Decision Closure の外側にある「人間の役割」を明確にする

これは設計でも仕様でもなく、
人間のためのガイドです。


6. 推奨される読み順

1. README
2. 00_overview(この文書)
3. human-idk-lamp
4. uncertainty
5. action-layer
6. relationship-with-decision-closure


7. 最後に

AIが賢くなるほど、
人間が「決めなくてよい理由」は増えていきます。

しかし、

価値を選ぶのは、常に人間の役割である

この境界を忘れないために、
このリポジトリは存在します。

2. 人間側の「分からないランプ」

この文書は、
人間にも idk-lamp(判断を閉じられないシグナル)が必要である
という考え方を整理したものです。

AI に idk-lamp が必要だったように、
AI 時代の人間にも同じ構造が必要になります。


1. なぜ「人間側の idk-lamp」が必要なのか

AI と人が一緒に考えるとき、
人間はしばしば次のような状況に置かれます。

  • 判断材料はあるが、決めきれない
  • 不確実性が大きすぎる
  • 未来の影響が読めない
  • 責任の重さが大きい
  • 価値の選択が絡む

しかし、人間はこれを 黙って抱え込んでしまう ことが多い。

その結果、

  • 無理に決断してしまう
  • AI の提案をそのまま採用してしまう
  • 本当は判断できないのに「できるふり」をしてしまう

という問題が起きる。

これを防ぐために必要なのが、
人間側の idk-lamp です。


2. 人間側の idk-lamp が示すもの

人間側の idk-lamp は、次の状態を示します。

  • 今は判断できない
  • 今は決められない
  • 今は不確実性が大きすぎる
  • 今は責任を引き受けられない
  • 今は選択の価値を決められない

これは弱さではなく、
意思決定の健全性を守るためのシグナルです。


3. 人間同士では自然に共有される「不確実性」

人間同士の会話では、
不確実性は“空気”として自然に共有されます。

  • 相手の迷い
  • 相手の不安
  • 相手の責任感
  • 相手の賭けの感覚
  • 相手の価値観の揺れ

これらは言葉にしなくても伝わる。

だから人間同士は、
不確実性を共有しながら意思決定できる


4. 人+AI では不確実性が共有されない

AI は構造的に次のことができません。

  • 一緒に悩む
  • 一緒に賭ける
  • 一緒に責任を持つ
  • 一緒に不安を抱える
  • 一緒に未来を想像する

つまり、AI は 不確実性の共犯者になれない

そのため、人間が「分からない」と言わない限り、
AI はその不確実性を認識できない。


5. 人間側の idk-lamp が果たす役割

人間側の idk-lamp は、次の役割を持ちます。

● ① 自分自身へのシグナル

「今は決められない」という事実を
自分で認識するためのメタ認知。

● ② AI へのシグナル

AI に対して
「判断を閉じる段階ではない」
ことを伝える。

● ③ 周囲(人間)へのシグナル

チームや関係者に
「今は判断を保留すべき」
という状態を共有する。

● ④ 責任の暴走を防ぐ

判断を急がせる圧力から
自分を守るための境界。


6. どんなときに「人間側の idk-lamp」を点灯すべきか

次のような場面では、
積極的に idk-lamp を点灯すべきです。

  • 判断の根拠が薄い
  • 未来の影響が大きい
  • 価値の選択が絡む
  • 自分の状態が不安定
  • 情報が足りない
  • 責任が重すぎる
  • AI の回答が滑らかすぎて不安

特に最後の項目は重要です。

AI の回答が整っているほど、
人間は「不確実性が省略されている」ことを忘れやすい。

7. 人間側の idk-lamp の具体的な表現例

これはルールではなく、
あくまで“表現の例”です。

  • 「今は判断できません」
  • 「もう少し考える時間が必要です」
  • 「この不確実性は自分では扱えません」
  • 「これは価値の選択なので、すぐには決められません」
  • 「判断を保留します」

重要なのは、
判断を止めることを恥じない こと。


8. 人間側の idk-lamp と Decision Closure の関係

Decision Closure は
AI が判断を閉じてよいか を決める構造。

人間側の idk-lamp は
人間が判断を閉じてよいか を決めるシグナル。

両者は次のように補完し合う。

AI:閉じてはいけない判断を閉じない(Decision Closure)
人:閉じられない判断を閉じない(human-idk-lamp)

コード

この二つが揃って初めて、
AI と人の協働が健全になる。


9. まとめ(短い版)

  • 人間にも「分からないランプ」が必要
  • 人間同士では自然に共有される不確実性は、AIとは共有されない
  • AIは不確実性の共犯者になれない
  • 判断できない状態を示すことは弱さではなく境界
  • 人間側の idk-lamp は、意思決定の健全性を守るための構造
  • Decision Closure と対になる存在

10. 次に読むべき文書

  • 02_uncertainty.ja.md(不確実性の扱い)
  • 03_action-layer.ja.md(行動レイヤーの3軸)
  • 04_relationship-with-decision-closure.ja.md(DCとの関係)

3. 不確実性の扱い

この文書は、
AI と人が一緒に考えるときに最も重要になる「不確実性」
について整理したものです。

AI は不確実性を「扱う」ことはできますが、
不確実性を“共有する”ことはできません

この違いが、AI と人の境界を決定づけます。


1. 不確実性とは何か

不確実性とは、次のような状態を指します。

  • 未来が読めない
  • 結果が保証されない
  • 判断材料が揃っていない
  • 価値の選択が絡む
  • リスクがゼロにならない

人間の意思決定は、
常にこの不確実性の中で行われています。


2. 人間は「不確実性を共有できる」

人間同士の意思決定には、
次のような“共有”が自然に存在します。

  • 相手も迷っている
  • 相手も不安を抱えている
  • 相手も責任を感じている
  • 相手も賭けに参加している
  • 相手も未来を読めない

つまり、人間同士は 不確実性の共犯者 になれる。

この「共犯性」があるからこそ、
人間は不確実な選択を後押しし合える。


3. AI は「不確実性の共犯者になれない」

AI は構造的に次のことができません。

  • 一緒に悩む
  • 一緒に賭ける
  • 一緒に責任を持つ
  • 一緒に不安を抱える
  • 一緒に未来を想像する

AI は不確実性を“計算”することはできても、
不確実性を“一緒に抱える”ことはできない

そのため、AI は次の領域に踏み込めません。

  • 背中を押す
  • 賭けを促す
  • 勇気を与える
  • リスクを共に負う

これらはすべて 人間固有の領域 です。


4. AI の回答は「不確実性が省略されている」

AI の回答は滑らかで整っていますが、
その裏側には次のものが含まれていません。

  • 迷い
  • 不安
  • 賭け
  • 責任
  • 価値観
  • 未来への恐れ

つまり、AI の回答は 不確実性が“抜け落ちた状態” で提示される。

これは欠陥ではなく、
AI の構造的な性質です。


5. 不確実性が省略されると何が起きるか

人間は AI の滑らかな回答を見て、
次のような誤解をしやすくなります。

  • 「これは確実なのだろう」
  • 「迷いがないなら正しいのだろう」
  • 「AI が言うなら大丈夫だろう」

しかし実際には、

AI は不確実性を省略しているだけで、
その判断の“重さ”を共有していない。

このギャップが、
人間の意思決定を危うくする。


6. 不確実性を扱うのは人間の役割

不確実性を扱うには、次の要素が必要です。

  • 勇気
  • 価値観
  • 責任
  • 直感
  • 経験
  • 未来への覚悟

これらはすべて 人間固有の能力 であり、
AI が代替できる領域ではありません。

だからこそ、

不確実性を選ぶ判断は、人間が閉じるべき判断
であり、AI が閉じてはいけない。

7. 不確実性と「人間側の idk-lamp」

不確実性が大きいとき、
人間は次のような状態になります。

  • 判断できない
  • 決められない
  • 未来が怖い
  • 責任が重い
  • 情報が足りない

この状態を示すために必要なのが、
人間側の idk-lamp です。

AI が idk-lamp を持つように、
人間も「今は閉じられない」というシグナルを
自分と周囲に示す必要がある。


8. 不確実性と Decision Closure の関係

Decision Closure は
AI が判断を閉じてよいか を決める構造。

不確実性が大きい判断は、
Decision Closure の 5 ステップのどこかで必ず破綻する。

  • 責任が分散する
  • 取消できない
  • 社会文脈が立ち上がる
  • 行動が連鎖する

つまり、

不確実性が大きい判断は、AI が閉じてはいけない判断

となる。


9. まとめ(短い版)

  • 不確実性は人間の意思決定の中心
  • 人間同士は不確実性を共有できる
  • AI は不確実性の共犯者になれない
  • AI の回答は不確実性が省略されている
  • 不確実性を選ぶ判断は人間の領域
  • 不確実性が大きいときは人間側の idk-lamp が必要
  • Decision Closure は不確実性の大きい判断を AI から外す構造

10. 次に読むべき文書

4. 行動レイヤーの3軸

この文書は、
AI と人が協力して行動を決めるときに必要となる「行動レイヤー」
を整理したものです。

行動レイヤーは、Decision Closure の外側にあり、
AI と人が「一緒に価値を選ぶ」ための最小構造です。


1. 行動レイヤーとは何か

AI と人が対話し、何かを決めようとするとき、
最終的には 行動 に落ちていきます。

しかし、行動の責任は常に人間にあります。

そのため、行動レイヤーには次の3つの軸が存在します。

知っている / 知らない

提案のまま行動した / 人が判断した

人間自身もギブアップした

コード

この3軸は、
AI と人が協働する際の“最小構造”です。


2. 軸①:知っている / 知らない

行動に関わる知識は、
人間側に次の2種類があります。

● 知っている

  • 手順を知っている
  • 経験がある
  • 何をすべきか理解している

この場合、AI の役割は
思い出し・整理・確認 に近い。

● 知らない

  • 初めての領域
  • 手順が分からない
  • 判断材料が足りない

この場合、AI の提案は
新しい行動のきっかけ になる。

ただし、知らない領域での行動は
不確実性が大きいため、
最終判断は必ず人間が行う必要がある。


3. 軸②:提案のまま行動した / 人が判断した

AI の提案に対して、人間は次のどちらかを選ぶ。

● 提案のまま行動した

  • AI の提案をそのまま採用
  • 判断を省略した状態
  • リスクの理解が浅くなりやすい

● 人が判断した

  • AI の提案を材料として扱う
  • 自分の価値観で選ぶ
  • 行動の責任を自分で引き受ける

重要なのは、

AI は行動の責任を肩代わりできない

という点。

AI は提案できるが、
選択の重さを共有できない


4. 軸③:人間自身もギブアップした

行動レイヤーで最も重要な軸。

人間自身が次のような状態になることがある。

  • 判断できない
  • 決められない
  • 不確実性が大きすぎる
  • 責任が重すぎる
  • 未来が怖い

これは弱さではなく、
人間の意思決定の自然な限界

この状態は、
人間側の idk-lamp を点灯すべき場面。

そして、

人間がギブアップする判断は、
AI が閉じてはいけない判断でもある。

5. 行動レイヤーの3軸が示すもの

この3軸は、
AI と人の協働における“境界”を明確にする。

知っている / 知らない
→ 行動の難易度と不確実性

提案のまま / 人が判断
→ 判断主体と責任の所在

人もギブアップ
→ 人間の限界と idk-lamp の必要性

コード

この3つが揃うことで、
AI と人の協働が健全になる。


6. 行動レイヤーと Decision Closure の関係

Decision Closure は
AI が判断を閉じてよいか を決める構造。

行動レイヤーは
人間が行動を引き受けるための構造

両者は次のように補完し合う。

Decision Closure:
AI が閉じてはいけない判断を外す

Action Layer:
人間が行動を引き受けるための最小構造を整える

コード

つまり、

AI は閉じない
人は引き受ける
その境界を支えるのが行動レイヤー

という関係になる。


7. まとめ(短い版)

  • 行動レイヤーは AI+人 → 行動 の最小構造
  • 3軸は「知識」「判断主体」「人間の限界」
  • 行動の責任は常に人間にある
  • 人間がギブアップする判断は、AI も閉じてはいけない
  • Decision Closure と行動レイヤーは補完関係

8. 次に読むべき文書

5. Decision Closure との関係

この文書は、
ai-human-boundary(人間の境界ガイド)
Decision Closure(AI の判断閉路構造)
の関係を整理したものです。

両者は目的も扱う領域も異なりますが、
互いに補完し合う構造になっています。


1. まず結論:両者は「上下関係」ではなく「役割の違い」

ai-human-boundary:
人間がどこまで引き受けるか(価値・不確実性・判断の限界)

Decision Closure:
AI がどこまで踏み込めるか(判断を閉じてよいか)

コード

つまり、

  • 人間の境界を扱うのが ai-human-boundary
  • AI の境界を扱うのが Decision Closure

という関係。

どちらが上位という話ではなく、
両者が揃って初めて AI+人 の協働が成立する


2. 両者が扱う領域の違い

◆ ai-human-boundary が扱う領域

  • 人間の不確実性
  • 人間側の idk-lamp
  • 行動の責任
  • 価値の選択
  • 人間の限界
  • AI と人の協働の“外側”の構造

これは 人間の意思決定レイヤー に属する。


◆ Decision Closure が扱う領域

  • AI が判断を閉じてよいか
  • 責任の所在
  • 可逆性
  • 行動の連鎖
  • 社会的文脈
  • 途中反転(Transition)

これは AI の判断閉路レイヤー に属する。


3. 両者の境界を図にするとこうなる

価値(VCDesign)

人間の意思決定レイヤー(ai-human-boundary)
├─ 人間側の idk-lamp
├─ 不確実性のメタ認知
└─ 行動レイヤーの3軸

AI の判断閉路レイヤー(Decision Closure)
├─ 5ステップ
└─ Transition

BOA(世界の境界)

コード

ai-human-boundary は Decision Closure の外側 にあり、
人間がどう立つかを扱う。

Decision Closure は AI の内側 にあり、
AI がどこまで踏み込めるかを扱う。


4. なぜこの2つが必要なのか

AI と人が協働するには、
次の2つの境界が必要になる。

● ① AI が踏み込んではいけない境界

→ Decision Closure が担当
→ 「AI はここで判断を閉じてはいけない」

● ② 人間が引き受けるべき境界

→ ai-human-boundary が担当
→ 「ここから先は人間が決める」

この2つが揃って初めて、
AI と人の協働が 安全で、健全で、価値に沿ったもの になる。


5. 両者の関係を一言で言うと

Decision Closure は AI の“止まる構造”。
ai-human-boundary は 人間の“立つ構造”。

AI が止まるだけでは不十分で、
人間がどこに立つかが必要。

人間が立つだけでは不十分で、
AI がどこで止まるかが必要。


6. 両者が補完し合う具体例

● ケース1:不確実性が大きい判断

  • 人間側:idk-lamp が点灯
  • AI側:Decision Closure が Human-Closed を返す

両者が同じ方向を向く


● ケース2:人間がギブアップしている

  • 人間側:判断できない
  • AI側:責任が分散しているため閉じられない

AI が人間の限界を踏み越えない


● ケース3:AI の提案が滑らかすぎる

  • 人間側:不確実性の省略をメタ認知
  • AI側:社会文脈が立ち上がり閉じられない

誤った確信を避けられる


7. 両者の違いを表にすると

項目 ai-human-boundary Decision Closure
対象 人間 AI
扱うもの 不確実性・価値・責任の引き受け 判断の可否・可逆性・社会文脈
目的 人間が壊れないためのガイド AI が踏み越えないための構造
形式 ガイド / 理解 構造 / ルール
出力 人間の立ち位置 AI-Closed / Human-Closed

8. まとめ(短い版)

  • ai-human-boundary は「人間の境界」
  • Decision Closure は「AI の境界」
  • 両者は上下ではなく役割が違う
  • 不確実性は人間が扱う
  • 判断の閉路は AI が扱う
  • 2つが揃って初めて AI+人 の協働が成立する