📌亡くなった人の“声”や“顔”をAIで再現する時代に、私たちは「死者の権利」という新しい問題に向き合わざるを得なくなっています。
AI技術が進化し、過去の音声・映像・文章から“故人らしさ”を再現できる時代が来ました。
しかしここで新たに浮上するのが、
「このAIに、故人の“名前”や“声”を使っていいのか?」
「本人が生きていたら、同意しただろうか?」
「もしAIが“失礼なこと”を言ったら、誰が責任を取るのか?」
という、死者の「人格」や「名誉」に関わる問題です。
これは単なる感情論ではありません。
法制度の整備が間に合っていない、現実の問題なのです。
🕊️ 背景:なぜ今、「死後のパブリシティ権」が注目されているのか?
🔹 故人AIとは?
- 写真・動画・音声・チャットログなどのデータをもとに、亡くなった人の“話し方”や“考え方”をAIで再現する技術
- 最近ではReddit創業者・Alexis Ohanian氏が亡母のAI動画を投稿したことなどが話題に
- 日本でも「故人の言葉を再現するサービス」「遺影が話すAI」などが登場
このように、死者の「再現」が一般家庭レベルでも可能になってきました。
🔹 同時に起きていること
- SNSでは「本人じゃないのに勝手に語らせるのは不快」といった拒否感も多数
- 海外ではAIによる“偽の名言”や“思想の誤認”などが社会問題化
- 一部では、故人AIが不適切な発言をし「本人の名誉を損なう」事例も議論に
⚖️ 「死んだ人の権利」って法律ではどうなっている?
🔸 名誉毀損の保護対象は「基本的に生者」
- 日本の法律では、名誉毀損罪(刑法230条)も、民事の不法行為責任(民法709条)も、原則として“生きている人”を守るものです
- 故人に対して明確な名誉保護の枠組みはありません
🔸 ただし、遺族が訴える余地はある
- たとえば、死者の虚偽報道が遺族の名誉感情を傷つけたとして損害賠償が認められた判例も存在(東京地裁/消防士中傷事件)
- つまり、間接的な“感情侵害”として訴える道はあるが、「死者本人の人格権」としての直接保護は未整備
🧑⚖️ そこで注目されるのが「パブリシティ権」
🔹 そもそもパブリシティ権とは?
- 人の氏名・肖像・声などを使って商業利用されないようコントロールできる権利
- 通常は芸能人や著名人の「顔写真」「名前」を無断で使った広告などが対象
- アメリカでは州法で「死後何十年も保護される」パブリシティ権が認められている(例:カリフォルニア州→死後70年)
🔹 死後の人格利用は「財産権」か「人格権」か?
ここで法学界が注目しているのが:
「故人のパブリシティ権を、財産のように遺族が管理できるようにすべきか?」
という論点です。
📚 例:J.E. Rothman(米・法学者)の主張
- 「故人の名誉・肖像・声の利用には、事前の許可や消去の権利を認めるべき」
- パブリシティ権を「人格的要素を帯びた財産権」として再構成し、“死後の人格の利用”をコントロールできるよう法改正をすべき
📚 S.L. Klein(米・法曹)の制度案
- 発言模倣や人格再現も含む広義のパブリシティ権に、期間制限や相続性、使用対価制度などを導入
- 死後50年程度の保護/遺言者指定/AI再現の明示などを組み合わせて制度設計を提案
💥 想定されるリスク:AIが「名誉を毀損する存在」になるとき
たとえば、こんなケースが現実に起こり得ます:
▶ ケース1:AIが“虚偽の発言”をする
- 故人AIが「過去に浮気していた」「誰々が嫌いだった」など、実在しない発言をする
- 遺族や関係者の間でトラブルに発展
- SNSで拡散され、故人の社会的評価が変化する
▶ ケース2:再現したAIが“信念と異なること”を語る
- 政治的・宗教的立場が生前と逆になっている
- 「生きていたら絶対言わなかったこと」を“本人の口調”で語る
- → “偽の本人像”が形成される
⚠️ 誰が責任を負うのか?
AIの発言は誰の責任なのか──これは現在の法律では明確にされていません。
| 要素 | 説明 |
|---|---|
| 開発者 | AIモデルや再現技術を開発した側に、設計責任が問われる可能性 |
| アップロード者(遺族など) | 発言を知りつつ公開した場合は、不法行為が成立しうる |
| プラットフォーム | 発言の削除要請に応じない場合、名誉回復義務が生じる可能性あり(例:プロバイダ責任制限法の枠) |
→ つまり、“AIが勝手に喋る”という形でも、制作・公開・運用のどこかに責任主体が発生する構造になります。
🔐 今後求められる制度・ガイドラインの方向性
✅ 1. 「デジタル遺言制度」の整備
- 故人のデータ(音声・映像・文章等)の使用可否を生前に明記する制度
- 許可対象(家族・第三者)、使用範囲(非商用・商用)、再現レベル(声だけ/発言含む)を指定できるように
✅ 2. 「人格再現の透明化」ルール
- 利用者に対して「これはAIによる再現です」と明示義務を課す
- 語尾や言い回しに“本人風味”を残していても、機械出力であることは明確にする
✅ 3. 「権利者の明示と異議申し立て制度」
- パブリシティ権の継承者(例:遺族や法的代理人)を記録・明示
- 遺族が「これは故人らしくない」と感じた場合、削除要請/訂正申請できるルールを用意する
✅ 4. 「再現上限年数」の設定(例:死後50年)
- 法的保護と公共性のバランスをとるため、一定年数で権利が消滅するよう制度設計する案も有力
🧠 考察:AIが人格を持たない時代に、“人格らしさ”を使ってよいのか?
AIは責任を負いません。
それでも“らしさ”を演出することで、人はそれを「本人」だと感じてしまいます。
この“再現された人格”は、以下のような曖昧さを抱えています:
| 本人とAIの違い | 何が問題になるか |
|---|---|
| 感情がないのに、感情を装える | 慰めとして機能するが、“発言の意味”が空洞化する可能性 |
| 記憶を持たないのに、過去を語れる | 間違った記憶が“真実”として流布される恐れ |
| 本人でないのに、本人と信じられる | 名誉や思想の“誤認”が起きるリスク |
あなたが「本当にその人らしい言葉に触れたい」と願うとき、
それは過去に交わした対話や、温度を伴う沈黙と一緒に残っているはずです。
AIはそれを模倣できますが、**編集するのは誰か?**という問いは常に残ります。
✅ まとめ:技術は“再現”を可能にしたが、“尊重”は制度で守るしかない
- 故人AIの登場は、「死者の権利」「人格の再現」をめぐる法制度の空白をあぶり出しました
- 名誉・肖像・思想は、もはや生きていなくても影響を受ける
- だからこそ、“本人の声をどう使うか”を、生きているうちに決められる仕組みが必要です
それが、「本当はこう言いたくなかったかもしれない」という後悔を、
AIの口から語らせないための、最小限の尊重かもしれません。
🔗 参考・出典
- 刑法第230条の名誉毀損罪とは?(刑事事件弁護士ナビ)
- 名誉毀損罪の「死者」に対する適用について(Wikipedia)
- Rothman, J.E. Postmortem Publicity Rights at the Property‑Personality Interface
SSRN論文リンク - Klein, S.L. The Post-Mortem Right of Publicity (Hofstra Law Review)
論文リンク - The Guardian: Digital recreations of dead people need urgent regulation
記事リンク
