AIが「いま死んだら困る人リスト」を作ったら? “不可欠な存在”を見極めるアルゴリズムと思考のリアリティ
序章:誰が「いま死んだら困る」のか?
「もし明日、◯◯さんが亡くなったら…?」
それは一見、タブーとも思える問いだ。しかし現代社会において、“不可欠な人材”や“代替不能な存在”は、会社、医療、行政、教育、インフラ、さらには家庭内にまで広がっている。
仮にAIが「いま死んだら最も困る人物リスト」を作成するとしたら、どうなるだろう?
そこに登場するのは政治家か?医師か?親か?経営者か?はたまた…無名のインフラ技術者か?
この問いは、私たちが日頃見過ごしている“依存構造”を炙り出し、テクノロジーがそれをどう捉えるかという示唆を与えてくれる。
本記事では、AIがこのリストをどう作成し、何を基準に「死んだら困る人」と判断するのか、社会や倫理、そして我々人間自身の脆弱さについて深く掘り下げていく。
第1章:AIが“リスク”を再定義する時代
1-1.「死」という非構造化データ
AIにとって、「死」は構造化されたデータではない。死因、年齢、経歴は数値化できても、「その人が不在になったとき、どれだけの人間や仕組みが崩れるか」は極めて定性的なデータである。
そこでAIは“社会的インパクトスコア”を参照する。たとえば:
- 従業員数・顧客数・生活者への影響(経済的規模)
- 代替可能性(専門性や技能の希少性)
- 時間的依存度(いま、この瞬間に欠けたらどうなるか)
- 情報独占(その人しか持たないナレッジの有無)
このスコアリングは、いわば“死のリスクマップ”を生成するということだ。
1-2. 予測不能性とブラックスワン
ナッシーム・ニコラス・タレブの「ブラックスワン理論」では、予測不可能かつ甚大な影響を与える出来事が強調される。
人の死も、その性質を持つ。特に、「名もなき不可欠な人」の喪失は予測不可能かつ破壊的だ。
たとえば、水道局のベテラン技師。
その人の死によって、地域全体が水不足に陥る可能性がある。AIはその“インビジブル・キーパー(見えざる管理者)”をあぶり出す役割を持ち始めている。
第2章:人間の価値は“社会的希少性”で決まるのか?
2-1. 有名人よりも“生活のハブ”が上位に?
AIがリストを生成するとき、評価されるのは“感情的価値”ではなく“構造的価値”である。
つまり、涙を流して惜しまれる人よりも、その人が動かしていた仕組みが止まるかどうかで順位が決まる。
こうして生まれるのが、「本当に死んだら困る人ランキング」だ。
たとえば:
- 地方の医療過疎地に1人だけいる内科医
- 独自のアルゴリズムを管理しているシステムエンジニア
- 高齢者施設の実質的な管理者(名ばかり施設長ではない)
- 難病患者を長年ケアしてきた在宅看護師
- 孤児を育てている非正規雇用のシングルマザー
彼らに共通するのは、“代替が効かない”という一点である。
2-2. 感情はスコア化できるか?
とはいえ、AIは単なる数字の機械ではない。
近年の生成AIや感情解析技術(Emotion AI)は、SNS投稿、通話ログ、メール、表情認識、音声トーンから人間の“情動ネットワーク”を可視化する。
こうして、「死んだら多くの人が感情的に傷つく人物」もリストアップ対象になる。
しかし、感情の多寡は「影響度」ではなく「話題性」として扱われ、優先順位はあくまで構造的依存度が優先されるという冷徹なアルゴリズムが主流となるだろう。
第3章:このリストは倫理的に許されるのか?
3-1. 「命に優劣をつけるのか?」という問い
このテーマに必ずぶつかるのが、「人の命に順位をつけることの是非」である。
倫理学では、このような“功利主義”に対する批判が根強い。
一部の人を「より重要」と見なす行為は、命の平等性に反するという考え方だ。
しかし、現実社会ではすでに無意識的に“優先順位”がつけられている。
災害時のトリアージ、政治家の警護、感染症対策におけるワクチン接種順位などがその一例である。
3-2. 社会的リスクマネジメントとしての価値
仮にこのリストが“公表されない非公開データ”であれば、企業や自治体が危機管理の一環として利用する価値は極めて高い。
- この職種の継承が不在である
- この地域の基幹人物が健康不安を抱えている
- このシステムは1人に依存している
AIは、そのような“人的脆弱性”を見抜き、警鐘を鳴らすのだ。
第4章:実際にリスト化を試みた研究とプロジェクト
4-1. 海外の事例:NATOやWHOの取り組み
NATOやWHOでは、パンデミックや戦時下における“不可欠人材”リストをAIで管理するプロジェクトが進行している。
「誰がいなくなったら、国家機能が止まるか」という観点でのリスク評価は、国防の一環でもある。
特にWHOでは、医療従事者の過重労働死や燃え尽き症候群による離職リスクをAIがスコア化する実験が行われている。
これはまさに、「死んだら困る人を守るための予防」なのである。
4-2. 日本の未活用分野
日本ではまだこうしたシステム化は進んでおらず、実際には属人的な現場に支えられている領域が多い。
たとえば町工場、漁業、水道インフラ、病院のカルテシステムなど。
もしAIがこの国の“見えざる依存構造”をリスト化したら、私たちは驚愕するかもしれない。
第5章:私たちは「代替されにくい人間」になれるか?
このAI的視点を逆手にとれば、自分自身の存在価値や職能について考えるきっかけにもなる。
- 自分は誰かの“困る存在”になれているか?
- 自分しか知らない情報・技能はあるか?
- 今、倒れても誰かが代わりを務められるか?
これは“生存戦略”でもある。
代替性の低い人材は、AIの時代においても“必要とされる存在”として残る。
終章:死ぬことのリアリティと、AIのまなざし
AIが「いま死んだら困る人リスト」を作るという思考実験は、単なるシミュレーションではない。
そこには、現代社会のもろさ、依存、代替不可能性、そして“人間の価値”に対する問いが凝縮されている。
死とは、「情報が永久に失われること」でもある。
AIは、その情報の価値を正確に測定しようとする。
私たちは今後、その冷静かつ冷徹なまなざしとどう向き合っていくのかを、真剣に考える必要がある。